阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Ollama模型导入指南,从HuggingFace下载模型轻松上手

17次阅读
没有评论

共计 2140 个字符,预计需要花费 6 分钟才能阅读完成。

Ollama 模型导入指南,从 HuggingFace 下载模型轻松上手

大家好,我是星哥,上一篇文章星哥介绍了本地部署 DeepSeek 的方法:《简单 3 步部署本地国产 DeepSeek 大模型》。

今天来讲不从 Ollama 官网 下载模型的方法,而是从 HuggingFace 下载,再导入模型。

Ollama 模型导入指南,从 HuggingFace 下载模型轻松上手

一、安装 ollama

参照 https://mp.weixin.qq.com/s/kJ7JCgFUNKWtPtp8r5mR_A 这篇文章安装 ollama

1. 查看 ollama 版本

ollama -v
ollama version is 0.5.7

2. 下载模型

由于文件比较大,下载模型的时间花费比较长,

关注 ’ 星哥说事 ’,回复 ‘HuggingFace-llama3’ 获得网盘下载地址。

Ollama 可以直接下载内置的几种模型,但选择有限。我们更希望从 HuggingFace 下载以便方便地评估各种模型,所以,这里我们并不从 Ollama 直接下载,而是从 HuggingFace 下载。

在 HuggingFace 搜索 llama3,设置LanguagesChinese,可以看到若干基于 LLaMa3 的中文模型:

直达地址:https://huggingface.co/zhouzr/Llama3-8B-Chinese-Chat-GGUF/tree/main

Ollama 模型导入指南,从 HuggingFace 下载模型轻松上手

点击 Files and versions

Ollama 模型导入指南,从 HuggingFace 下载模型轻松上手

下载 Llama3-8B-Chinese-Chat.q6_k.GGUF

GGUF 格式的模型,GGUF 格式是 llama.cpp 团队搞的一种模型存储格式,一个模型就是一个文件,llama.cpp 的创始人 Georgi Gerganov 定义,旨在解决当前大模型在实际应用中遇到的存储效率、加载速度、兼容性和扩展性等问题。

Ollama 模型导入指南,从 HuggingFace 下载模型轻松上手

3. 导入模型

需要编写一个配置文件,随便起个名字,如 ollama_Liama3_config.txt

文件放到 D 盘下的 ollama 目录中

配置文件内容如下:

FROM"D:\ollama\Llama3-8B-Chinese-Chat.q6_k.GGUF"
TEMPLATE """{{- if .System}}
<|im_start|>system {{.System}}<|im_end|>
{{- end}}
<|im_start|>user
{{.Prompt}}<|im_end|>
<|im_start|>assistant
"""
SYSTEM """"""
PARAMETER stop <|im_start|>
PARAMETER stop <|im_end|>

Ollama 模型导入指南,从 HuggingFace 下载模型轻松上手

导入模型命令

PS D:\ollama> ollama create llama3-cn-8b -f ./ollama_Liama3_config.txt
gathering model components
copying file sha256:e0e83a7967c61e38d6a3fd8b093754117944b405d35afe95f129fbfb143929f2 100%
parsing GGUF
using existing layer sha256:e0e83a7967c61e38d6a3fd8b093754117944b405d35afe95f129fbfb143929f2
creating new layer sha256:b65f5bb03e74da8572e4191596a895bddc10355595c38574a16fdf12a889855b
creating new layer sha256:f02dd72bb2423204352eabc5637b44d79d17f109fdb510a7c51455892aa2d216
writing manifest
success

查看模型

ollama list
NAME                     ID             SIZE     MODIFIED
llama3-cn-8b:latest     d710bb08d58c   6.6 GB   About a minute ago
llama2-chinese:latest   cee11d703eee   3.8 GB   19 hours ago
deepseek-r1:14b         ea35dfe18182   9.0 GB   27 hours ago
qwen2.5:latest           845dbda0ea48   4.7 GB   40 hours ago
deepseek-r1:7b           0a8c26691023   4.7 GB   42 hours ago
llama3:latest           365c0bd3c000   4.7 GB   45 hours ago

llama3-cn-8b:latest 则导入成功

运行模型

使用 Ollama 的 run 命令可以直接运行模型。我们输入命令

ollama run llama3-cn-8b

Ollama 模型导入指南,从 HuggingFace 下载模型轻松上手

在 Open WebUI 使用

Ollama 模型导入指南,从 HuggingFace 下载模型轻松上手

总结

通过 Ollama,你可以轻松地在本地运行 Hugging Face 模型。Ollama 提供了简单易用的命令行界面,让你能够快速上手。希望本指南能够帮助你成功导入并运行 Hugging Face 模型。

写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧!😊

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2025-02-07发表,共计2140字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中