继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

从崩溃到成功:深度解析FastGPT与DeepSeek-R1的本地模型对接之路

IT技术工坊
关注TA
已关注
手记 41
粉丝 0
获赞 5

本地Ollama跑DeepSeek-R1测试perfect,一接FastGPT就疯狂报"Connection error"?——连续5次失败后,今天用血泪踩坑经验,暴力破解连接难题.

💔 为什么会狂踩5次雷?

1️⃣ 致命误区:以为localhost=容器IP → 实际Docker网络有3层隔离结界
2️⃣ 端口幻觉:11434显示监听成功 → 却被隐藏的firewall规则暗杀!

图片

登录FastGPT管理中心

🔥浏览器猛戳 http://{你的服务器IP}:3000 切记将{你的服务器IP}替换为实际公网IP/域名
🔥登录成功 → 火速冲向左侧边栏最底部点击[账号] → [模型提供商],暴击右上角[模型配置]选项卡****

图片

核心参数配置

🔥操作路径点击[新增模型]→选择[语言模型] 90%的人踩坑重灾区!
图片

终极避坑指南,自定义请求地址必须用Docker内网IP!

错误示范(血泪教训)

#自定义请求地址:
http://localhost:11434/v1/chat/completions
http://127.0.0.1:11434/v1/chat/completions

正确操作(亲测可用)

查看Docker容器网关IP

# 执行这条命令直接拿到救命IP
ip route | grep docker0 | awk 'NR==1{print $9}'
# 输出示例:172.17.0.1

图片
🔥正确的自定义请求地址公式


http://172.17.0.1:11434/v1/chat/completions

****💥 **致命原因,**Docker容器与宿主机存在网络隔离!当你的FastGPT和Ollama都跑在Docker时,localhost指向的其实是各自容器的内部网络。

触发爆炸性测试

🔥用Logs狙击链路玄学故障,终端执行以下命令开启Ollama监控

docker logs -f ollama --tail 50

图片
🔥在FastGPT点击【模型测试】按钮,30秒内观察日志变化,当同时满足:
✅ FastGPT界面弹绿色成功提示
✅ 对比日志时间与点击[模型测试]按钮的时间,监控日志如显示以下内容

[GIN] 2025/03/16 - 13:40:51 | 200 |  6.226105343s |      172.17.0.1 | POST     "/v1/chat/completions"

图片


**恭喜!你已成功突破FastGPT与Ollama本地模型DeepSeek-R1的对接之路!

**关注【IT技术工坊】解锁下期猛料私有化向量模型BGE-M3+ FastGPT无缝接入技巧!
图片

打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP