版本比较

标识

  • 该行被添加。
  • 该行被删除。
  • 格式已经改变。

简述

通过普通的 PC 电脑本地化部署大模型提供基于 deepseek r1 的模型能力。办公 PC 的配置如下:

CPU:i5-11400F  2.60GHz 内存:8G,集成显卡。操作系统:Debian

  • ollama 提供模型集成整合能力
  • deepseek r1 提供大模型算法能力
  • dify 提供 GUI 的整合能力

docker 环境配置

略,参考2011-Photon 容器主机配置指引debian 容器环境配置

Ollama 配置

参照官网的配置说明下载对应的版本:https://github.com/ollama/ollama/blob/main/docs/linux.md。网络环境不太稳定的情况建议考虑离线安装的方式。

1、下载 ollama 离线版本

ollama 有不同的离线版本,主要适配集成显卡、AMD显卡和 Nvidia CUDA 的显卡以及 ARM 版本。这里下载的是通用版本

2、安装并运行 ollama

代码块
languageshell
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
tar -C /usr -xzf ollama-linux-amd64.tgz
ollama serve
ollama -v
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)

3、配置自启动服务

信息

需要注意在配置文件中增加 “Environment="OLLAMA_HOST=0.0.0.0",否则在后面的Dify GUI 配置界面会出现连接失败的错误

代码块
languageshell
cat > /etc/systemd/system/ollama.service << EOF
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
Environment="OLLAMA_HOST=0.0.0.0"
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"

[Install]
WantedBy=default.target
EOF

systemctl daemon-reload
systemctl enable ollama
systemctl start ollama

加载 deepseek r1 模型

在线更新所需的模型是最简单的

代码块
languageshell
code

参考

部署并配置 dify

部署 dify

通过 docker 部署是最省事的

代码块
languageshell
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
docker compose up 

dify 配置

默认情况下打开 URL 即可访问

1、进入【设置】-【模型供应商】选择 ollama

2、在 配置页面输入对应的主机 URL 

3、配置后即可按需求发布应用


目录