Py学习  »  docker

Ollama Proxy 利用 Docker 化的 Nginx -20250907142613

爱可可-爱生活 • 8 月前 • 989 次点击  

2025-09-07 14:26

Ollama Proxy 利用 Docker 化的 Nginx 搭配 Cloudflare Tunnel,安全且便捷地将本地 Ollama AI 模型服务暴露到公网,适合需要远程访问与身份验证的场景。

• Nginx 反向代理,转发本地 11434 端口 Ollama 请求,支持 CORS,兼容各类前端调用
• 内置基于 Authorization 头的访问认证,确保接口安全,防止未授权访问
• Cloudflare Tunnel 集成,零配置实现公网穿透,自动加密传输,避免暴露本地网络
• Docker + Docker Compose 部署,配置简单易用,支持自动更新 cloudflared 客户端
• 支持通过 Ollama CLI 重命名模型,方便兼容 OpenAI API 调用习惯
• 完善日志和测试接口,快速验证环境配置与服务状态
• 依赖 Cloudflare 安全架构,公网入口全程 SSL 加密,保护数据隐私
• 本地网络内通信未加密但隔离,适合受信任环境使用

通过这一方案,可以在不牺牲安全性的前提下,实现本地 AI 模型的远程调用和集成,极大提升开发和部署灵活性。

🔗 github.com/kesor/ollama-proxy

#AI模型部署# #反向代理# #CloudflareTunnel# #Docker# #安全认证#
Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/186470