共计 1078 个字符,预计需要花费 3 分钟才能阅读完成。
终极目标
大概的用法是局域网的终端通过浏览器访问大模型的服务器 IP+ 端口,既可使用 deepseek 等大模型
准备工作
部署本地国产 DeepSeek 大模型,参考 https://mp.weixin.qq.com/s/kJ7JCgFUNKWtPtp8r5mR_A 这篇文章。
安装好 Ollama+Open Webui+ 开源大模型(DeepSeek、Llama 等)
修改 Ollama 服务 IP
由于局域网 IP 段是 192.168.1.X,我把 ip 固定以免 DHCP 把 ip 分配给局域网其他终端了。
我的是 Win11 系统,固定 ip
如下图,打开 TCP/IPV4
按实际需要改成固定内网 IP。
问题 1:Open Webui 打开很慢
这时候通过浏览器使用 IP+ 端口即可访问 Open Webui
open webui 打开 api/models 很慢,每次都超过 20 秒了,打开都要等很久。
解决问题
打开太慢,进去管理员面板 —> 外部链接 —> openai_api 关闭即可,是网络环境的问题。
问题 2:用户没有大模型
1. 允许新用户注册
依次点击,设置管理员面板 —> 设置 —> 默认用户角色
默认是待激活,此时新用户注册需要管理员通过才可进入系统。
这里我选择“用户”。
2. 权限设置
依次点击,设置管理员面板 —> 用户 —> 默认用户角色
点击“权限组”
可以新建权限组,并且把组权限组里的权限按需打开。
我这里把权限都打开了。
新注册用户,还是没有大模型
3. 添加大模型
依次点击,工作空间,大模型,再点加号
添加大模型
1. 添加模型名称
2. 基础模型 (来自),这里是 ollama 里面的模型
3. 可见性改成公共。
验证
这样团队的小伙伴就可以使用你的 Ollama 了。
结束
通过结合 Ollama 和 Open-WebUI,我们能够非常方便地将大模型(如 DeepSeek)通过局域网分享给团队中的其他成员使用。这种方式不仅简单直观,还能够通过 Web 界面让不熟悉命令行的同事也能够轻松使用模型。无论是在本地开发环境中还是在公司内部网络内,这种方法都能大大提高团队的协作效率。
写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧!😊
