Zenith Horizon

Linux 安装配置 Ollama

2026/04/13
loading

1. 安装方法

推荐方法(自动安装):

curl -fsSL https://ollama.com/install.sh | sh

手动安装方法:

# 下载并解压包
curl -fsSL https://ollama.com/download/ollama-linux-amd64.tar.zst | sudo tar x -C /usr

# 启动Ollama
ollama serve

2. 验证安装

ollama -v

3. 配置为系统服务(推荐)

# 创建用户和组
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)

# 启动服务
sudo systemctl start ollama
sudo systemctl enable ollama
sudo systemctl status ollama

Ollama CLI 常用命令

模型管理

# 下载模型
ollama pull llama3

# 列出本地模型
ollama list
ollama ls

# 查看模型详情
ollama show llama3

# 删除模型
ollama rm llama3

# 复制模型
ollama cp llama3 my-llama3

运行模型

# 交互式运行
ollama run llama3

# 单次提问
ollama run llama3 "What is the capital of France?"

# 管道输入
echo "What is 2+2?" | ollama run llama3

# 详细输出(显示性能统计)
ollama run llama3 --verbose "Hello world"

# JSON格式输出
ollama run llama3 --format json "List 3 programming languages"

服务器管理

# 查看运行中的模型
ollama ps

# 停止模型
ollama stop llama3

# 启动服务器
ollama serve

# 查看日志
journalctl -u ollama -f

创建自定义模型

# 创建Modelfile
cat > Modelfile << EOF
FROM llama3
SYSTEM "You are a helpful assistant"
PARAMETER temperature 0.7
EOF

# 创建自定义模型
ollama create my-assistant -f Modelfile

环境变量配置

# 监听所有网络接口
export OLLAMA_HOST=0.0.0.0:11434

# 设置并行请求数
export OLLAMA_NUM_PARALLEL=2

# 设置模型存储路径
export OLLAMA_MODELS=/path/to/models

实用技巧

批量下载模型

for model in llama3 gemma3 mistral; do
    ollama pull $model
done

模型性能测试

ollama run llama3 --verbose "Write a 100-word essay" 2>&1 | grep "eval rate"

API访问测试

curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt": "Hello",
  "stream": false
}'

系统要求

  • 操作系统: Linux

  • 内存: 至少8GB,推荐16GB+

  • 存储: 至少10GB空闲空间

  • GPU: 可选,但推荐(NVIDIA/AMD支持)

更新和卸载

更新Ollama:

curl -fsSL https://ollama.com/install.sh | sh

卸载Ollama:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service
sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama

这就是Linux下安装和使用ollama CLI的完整指南。安装完成后,您就可以开始本地运行各种大型语言模型了!

Author: Max

Permalink: /archives/ollama-linux

Published: 2026-04-13 20:42:08

Updated: 2026-04-13 20:40:48

License: 本文采用知识共享署名-非商业性使用 4.0 国际许可协议进行许可

CATALOG