作者:ctq
下面是一份整理好的笔记,方便你快速查阅和管理ollama服务:
启用服务(开机自启):
设置ollama服务在系统启动时自动启动。
sudo systemctl enable ollama
启动服务:
立即启动ollama服务。
sudo systemctl start ollama
停止服务:
停止正在运行的ollama服务。
sudo systemctl stop ollama
重启服务:
重新启动ollama服务。
sudo systemctl restart ollama
查看服务状态:
检查ollama服务当前的运行状态。
sudo systemctl status ollama
禁用服务开机自启:
取消ollama服务在系统启动时自动启动的设置。
sudo systemctl disable ollama
手动执行模型启动时的注意:
如果你需要手动执行sudo ollama serve,请先停止正在运行的ollama服务,防止冲突。
sudo systemctl stop ollama
命令解析:
以上命令和说明可以帮助你有效管理ollama服务的运行状态。根据实际需求启用、停止、启动、重启服务,确保系统服务正常运行。
最近在 Open WebUI 里找不到 Ollama 的模型,ollama list也显示为空。但我确定之前下载了gemma3:12b和deepseek-r1这些模型。于是开始了一场 Ollama 模型存储路径大冒险。
1️⃣ 检查 Ollama 进程
2️⃣ 尝试ollama list
3️⃣ 查看默认模型存储目录 (~/.ollama/models/)
4️⃣ 查找其他可能的存储路径
/usr/share/ollama/.ollama/models /usr/share/ollama/.ollama/models/blobs /usr/share/ollama/.ollama/models/manifests
5️⃣ 检查 systemd 运行 Ollama 时使用的路径
6️⃣ 尝试让手动运行的 Ollama 读取正确路径
OLLAMA_MODELS="/usr/share/ollama/.ollama/models" ollama serve
7️⃣ 让 Ollama 重新索引模型
ollama refresh ollama list
✅ Ollama 进程正常,但ollama list为空 → 说明 Ollama 没有找到正确的模型存储路径。
✅ 默认~/.ollama/models/目录为空,但/usr/share/ollama/.ollama/models/blobs/里存有模型数据。
✅ 手动运行ollama serve时,它默认找~/.ollama/models/,但systemctl运行的 Ollama 读取的是/usr/share/ollama/.ollama/models/。
✅ 通过OLLAMA_MODELS="/usr/share/ollama/.ollama/models" ollama serve让 Ollama 读取正确路径,成功找到模型!
✅ 最终用ollama refresh重新索引,确保 Open WebUI 也能正确识别模型。
ls -lah /usr/share/ollama/.ollama/models/blobs/
ollama refresh
OLLAMA_MODELS="/usr/share/ollama/.ollama/models" ollama serve
sudo systemctl show ollama | grep Environment
sudo systemctl restart ollama
???? 最终结果:成功找到丢失的模型,并让 Ollama 和 Open WebUI 正常使用!????
这次的排查过程让我更深入理解了 Ollama 的模型存储机制,记录下来,以备日后遇到类似问题时参考。????????
???? 经验总结
???? 下次如果遇到模型丢失的问题,按照这个步骤就能快速定位并解决!????