共计 2140 个字符,预计需要花费 6 分钟才能阅读完成。
大家好,我是星哥,上一篇文章星哥介绍了本地部署 DeepSeek 的方法:《》。
今天来讲不从 下载模型的方法,而是从 HuggingFace 下载,再导入模型。
一、安装 ollama
参照 https://mp.weixin.qq.com/s/kJ7JCgFUNKWtPtp8r5mR_A 这篇文章安装 ollama
1. 查看 ollama 版本
ollama -v | |
ollama version is 0.5.7 |
2. 下载模型
由于文件比较大,下载模型的时间花费比较长,
关注 ’ 星哥说事 ’,回复 ‘HuggingFace-llama3’ 获得网盘下载地址。
下载以便方便地评估各种模型,所以,这里我们并不从 Ollama 直接下载,而是从 HuggingFace 下载。
在 HuggingFace 搜索 llama3
,设置Languages
为Chinese
,可以看到若干基于 LLaMa3 的中文模型:
直达地址:https://huggingface.co/zhouzr/Llama3-8B-Chinese-Chat-GGUF/tree/main
点击 Files and versions
下载 Llama3-8B-Chinese-Chat.q6_k.GGUF
GGUF 格式的模型,GGUF 格式是 llama.cpp 团队搞的一种模型存储格式,一个模型就是一个文件,llama.cpp 的创始人 Georgi Gerganov 定义,旨在解决当前大模型在实际应用中遇到的存储效率、加载速度、兼容性和扩展性等问题。
3. 导入模型
需要编写一个配置文件,随便起个名字,如 ollama_Liama3_config.txt
文件放到 D 盘下的 ollama 目录中
配置文件内容如下:
FROM"D:\ollama\Llama3-8B-Chinese-Chat.q6_k.GGUF" | |
| |
TEMPLATE """{{- if .System}} | |
<|im_start|>system {{.System}}<|im_end|> | |
{{- end}} | |
<|im_start|>user | |
{{.Prompt}}<|im_end|> | |
<|im_start|>assistant | |
""" | |
| |
SYSTEM """""" | |
| |
PARAMETER stop <|im_start|> | |
PARAMETER stop <|im_end|> |
导入模型命令
PS D:\ollama> ollama create llama3-cn-8b -f ./ollama_Liama3_config.txt | |
gathering model components | |
copying file sha256:e0e83a7967c61e38d6a3fd8b093754117944b405d35afe95f129fbfb143929f2 100% | |
parsing GGUF | |
using existing layer sha256:e0e83a7967c61e38d6a3fd8b093754117944b405d35afe95f129fbfb143929f2 | |
creating new layer sha256:b65f5bb03e74da8572e4191596a895bddc10355595c38574a16fdf12a889855b | |
creating new layer sha256:f02dd72bb2423204352eabc5637b44d79d17f109fdb510a7c51455892aa2d216 | |
writing manifest | |
success |
查看模型
ollama list | |
NAME ID SIZE MODIFIED | |
llama3-cn-8b:latest d710bb08d58c 6.6 GB About a minute ago | |
llama2-chinese:latest cee11d703eee 3.8 GB 19 hours ago | |
deepseek-r1:14b ea35dfe18182 9.0 GB 27 hours ago | |
qwen2.5:latest 845dbda0ea48 4.7 GB 40 hours ago | |
deepseek-r1:7b 0a8c26691023 4.7 GB 42 hours ago | |
llama3:latest 365c0bd3c000 4.7 GB 45 hours ago |
llama3-cn-8b:latest 则导入成功
运行模型
使用 Ollama 的 run
命令可以直接运行模型。我们输入命令
ollama run llama3-cn-8b
在 Open WebUI 使用
总结
通过 Ollama,你可以轻松地在本地运行 Hugging Face 模型。Ollama 提供了简单易用的命令行界面,让你能够快速上手。希望本指南能够帮助你成功导入并运行 Hugging Face 模型。
写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧!😊
