Ollama Proxy 利用 Docker 化的 Nginx 搭配 Cloudflare Tunnel,安全且便捷地将本地 Ollama AI 模型服务暴露到公网,适合需要远程访问与身份验证的场景。
• Nginx 反向代理,转发本地 11434 端口 Ollama 请求,支持 CORS,兼容各类前端调用
• 内置基于 Authorization 头的访问认证,确保接口安全,防止未授权访问
• Cloudflare Tunnel 集成,零配置实现公网穿透,自动加密传输,避免暴露本地网络
• Docker + Docker Compose 部署,配置简单易用,支持自动更新 cloudflared 客户端
• 支持通过 Ollama CLI 重命名模型,方便兼容 OpenAI API 调用习惯
• 完善日志和测试接口,快速验证环境配置与服务状态
• 依赖 Cloudflare 安全架构,公网入口全程 SSL 加密,保护数据隐私
• 本地网络内通信未加密但隔离,适合受信任环境使用
通过这一方案,可以在不牺牲安全性的前提下,实现本地 AI 模型的远程调用和集成,极大提升开发和部署灵活性。
🔗 github.com/kesor/ollama-proxy
#AI模型部署# #反向代理# #CloudflareTunnel# #Docker# #安全认证#
• Nginx 反向代理,转发本地 11434 端口 Ollama 请求,支持 CORS,兼容各类前端调用
• 内置基于 Authorization 头的访问认证,确保接口安全,防止未授权访问
• Cloudflare Tunnel 集成,零配置实现公网穿透,自动加密传输,避免暴露本地网络
• Docker + Docker Compose 部署,配置简单易用,支持自动更新 cloudflared 客户端
• 支持通过 Ollama CLI 重命名模型,方便兼容 OpenAI API 调用习惯
• 完善日志和测试接口,快速验证环境配置与服务状态
• 依赖 Cloudflare 安全架构,公网入口全程 SSL 加密,保护数据隐私
• 本地网络内通信未加密但隔离,适合受信任环境使用
通过这一方案,可以在不牺牲安全性的前提下,实现本地 AI 模型的远程调用和集成,极大提升开发和部署灵活性。
🔗 github.com/kesor/ollama-proxy
#AI模型部署# #反向代理# #CloudflareTunnel# #Docker# #安全认证#