5分钟速通,openEuler 部署 DeepSeek 全攻略

5分钟速通,openEuler 部署 DeepSeek 全攻略

kyle

2025-02-14 发布196 浏览 · 1 点赞 · 0 收藏

DeepSeek R1 发布之后,受到了全球开发者的关注。本文介绍了如何在 OpenAtom openEuler(简称"openEuler") 中部署 DeepSeek。对 openEuler AI 相关能力的感兴趣的开发者可以在微信公众号后台联系 openEuler 小助手,回复sig-intelligence,进入技术交流群。

系统环境硬件要求

模型 CPU 内存 存储
DeepSeek-R1-Distill-Qwen-1.5B 至少 4 核,推荐 8 核 16GB 以上 60GB 以上
DeepSeek-R1-Distill-Qwen-7B 至少 8 核,推荐 16 核 16GB 以上 60GB 以上
DeepSeek-R1-Distill-Llama-8B 至少 16 核,推荐 32 核 16GB 以上 60GB 以上

安装方式一:自动部署

以下部署流程是在 openEuler 24.03 LTS 版本上使用 Ollama 推理框架部署 DeepSeek-R1-Distill-Qwen-7B 的流程。注意:该方式可能会存在下载速度缓慢的问题,后面提供了手动下载部署安装的方式,便于在网络环境不好的情况下进行部署安装。

  • Ollama 下载安装采用 Ollama 官网下载方式:
curl -fsSL https://ollama.com/install.sh | sh  
  • Ollama 部署 DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b  

至此,DeepSeek 部署完成,可以通过命令行来进行交互提问。

Image 9

安装方式二:手动部署

在国内使用官网下载 Ollama 会很慢,下面提供了 Ollama 的手动安装方式。注意,本文中提供了 github 的下载链接,下载链接用户可以自行选择替换。

  • 对于 arm 架构的计算机,采用如下链接进行下载
wget https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-arm64.tgz  
tar -xzvf ollama-linux-arm64.tgz -C /usr/  
  • 对于 x86 架构的计算机,采用如下链接进行下载
wget https://github.com/ollama/ollama/releases/download/v0.5.7/ollama-linux-amd64.tgz  
tar -xzvf ollama-linux-amd64.tgz -C /usr/  

使用 Ollama 官网下载模型同样会出现下载缓慢的问题,这里提供了手动下载 DeepSeek 大模型来进行手动部署的方式。需要注意的是,Ollama 当前只支持 gguf 格式的模型。

大模型下载链接,可根据自己机器的硬件配置来选择模型:

模型 下载链接
DeepSeek-R1-Distill-Qwen-1.5B https://www.modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-1.5B-GGUF/resolve/master/DeepSeek-R1-Distill-Qwen-1.5B-Q4_K_M.gguf
DeepSeek-R1-Distill-Qwen-7B https://www.modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF/resolve/master/DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf
DeepSeek-R1-Distill-Llama-8B https://www.modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Llama-8B-GGUF/resolve/master/DeepSeek-R1-Distill-Llama-8B-Q4_K_M.gguf
wget https://www.modelscope.cn/models/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF/resolve/master/DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf  

创建并配置名为 ollama.service 的 systemd 服务,将下述命令完整复制到命令行执行。

cat <<EOF | tee /etc/systemd/system/ollama.service >/dev/null  
[Unit]  
Description=Ollama Service  
After=network-online.target  
[Service]  
ExecStart=/usr/bin/ollama serve  
User=ollama  
Group=ollama  
Restart=always  
RestartSec=3  
Environment="PATH=\$PATH"  
[Install]  
WantedBy=default.target  
EOFsystemctl daemon-reload  
systemctl enable ollama --now

编写 Modelfile,配置大模型的相关参数

cat <<EOF | tee ./Modelfile >/dev/null  
FROM ./DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf  
TEMPLATE """{{- if .System }}{{ .System }}{{ end }}  
{{- range $i, $_ := .Messages }}  
{{- $last := eq (len (slice $.Messages $i)) 1}}  
{{- if eq .Role "user" }}< | User | >{{ .Content }}  
{{- else if eq .Role "assistant" }}< | Assistant | >{{ .Content }}{{- if not $last }}< | end_of_sentence | >{{- end }}  
{{- end }}  
{{- if and $last (ne .Role "assistant") }}< | Assistant | >{{- end }}  
{{- end }}"""  
SYSTEM ""  
PARAMETER temperature 0.7  
PARAMETER top_p 0.7  
PARAMETER top_k 30  
PARAMETER num_ctx 4096  
EOF  

创建一个名称为deepseek-r1:7b的模型实例,模型实例名称可以自定义。

ollama create -f ./Modelfile deepseek-r1:7b  

使用 ollama 命令运行创建的模型实例

ollama run deepseek-r1:7b  

Image 10


文章来源:https://mp.weixin.qq.com/s/YTt0MWxDCUuVwKY3fRlMRA

请前往 登录/注册 即可发表您的看法…