1. 安装方法
推荐方法(自动安装):
curl -fsSL https://ollama.com/install.sh | sh
手动安装方法:
# 下载并解压包
curl -fsSL https://ollama.com/download/ollama-linux-amd64.tar.zst | sudo tar x -C /usr
# 启动Ollama
ollama serve
2. 验证安装
ollama -v
3. 配置为系统服务(推荐)
# 创建用户和组
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)
# 启动服务
sudo systemctl start ollama
sudo systemctl enable ollama
sudo systemctl status ollama
Ollama CLI 常用命令
模型管理
# 下载模型
ollama pull llama3
# 列出本地模型
ollama list
ollama ls
# 查看模型详情
ollama show llama3
# 删除模型
ollama rm llama3
# 复制模型
ollama cp llama3 my-llama3
运行模型
# 交互式运行
ollama run llama3
# 单次提问
ollama run llama3 "What is the capital of France?"
# 管道输入
echo "What is 2+2?" | ollama run llama3
# 详细输出(显示性能统计)
ollama run llama3 --verbose "Hello world"
# JSON格式输出
ollama run llama3 --format json "List 3 programming languages"
服务器管理
# 查看运行中的模型
ollama ps
# 停止模型
ollama stop llama3
# 启动服务器
ollama serve
# 查看日志
journalctl -u ollama -f
创建自定义模型
# 创建Modelfile
cat > Modelfile << EOF
FROM llama3
SYSTEM "You are a helpful assistant"
PARAMETER temperature 0.7
EOF
# 创建自定义模型
ollama create my-assistant -f Modelfile
环境变量配置
# 监听所有网络接口
export OLLAMA_HOST=0.0.0.0:11434
# 设置并行请求数
export OLLAMA_NUM_PARALLEL=2
# 设置模型存储路径
export OLLAMA_MODELS=/path/to/models
实用技巧
批量下载模型
for model in llama3 gemma3 mistral; do
ollama pull $model
done
模型性能测试
ollama run llama3 --verbose "Write a 100-word essay" 2>&1 | grep "eval rate"
API访问测试
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Hello",
"stream": false
}'
系统要求
操作系统: Linux
内存: 至少8GB,推荐16GB+
存储: 至少10GB空闲空间
GPU: 可选,但推荐(NVIDIA/AMD支持)
更新和卸载
更新Ollama:
curl -fsSL https://ollama.com/install.sh | sh
卸载Ollama:
sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service
sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama
这就是Linux下安装和使用ollama CLI的完整指南。安装完成后,您就可以开始本地运行各种大型语言模型了!