Ollama 教程(实战总结)

快速解决

直接通过命令行安装并启动 Ollama 服务,本地运行 Llama 系列模型:

curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3

常用方法

命令 功能 使用频率
ollama run <模型名> 启动指定模型服务 ★★★★★★
ollama list 列出已安装模型 ★★★★★☆
ollama pull <模型名> 下载模型到本地 ★★★★★★
ollama stop <模型名> 停止模型服务 ★★★★☆☆
ollama create <模型名> 创建自定义模型 ★★★★☆☆
ollama logs 查看运行日志 ★★★☆☆☆

详细说明

模型安装与运行

curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3
ollama run llama3
> 你好
> exit

模型管理

ollama list
ollama stop llama3
ollama prune

自定义模型部署

ollama create my_model -f model_config.json
{
  "name": "my_model",
  "model": "/path/to/your/model.bin",
  "license": "MIT",
  "description": "自定义训练的中文模型",
  "parameters": {
    "temperature": 0.7,
    "context_length": 2048
  }
}

高级技巧

1. 模型微调适配

ollama fine-tune my_model --data /path/to/data.jsonl
[
  {"input": "用户问题", "output": "预期答案"},
  {"input": "第二个输入", "output": "第二个输出"}
]

2. API 接口调用

curl -X POST http://localhost:11434/api/generate \
  -H "Content-Type: application/json" \
  -d '{
    "model": "llama3",
    "prompt": "写一个关于人工智能的比喻",
    "stream": false
  }'

3. 性能优化设置

ollama run llama3 -g 0.75
ollama run llama3 -c 4096 -b 2048

常见问题

Q1: Ollama 安装后无法启动怎么办?
检查系统是否满足最低配置要求(至少 8GB RAM),并确保已安装最新版 Docker(Linux/macOS 推荐)。

Q2: 如何更换模型存储路径?
通过环境变量设置:

export OLLAMA_HOST="http://127.0.0.1:11434"
$env:OLLAMA_HOST="http://127.0.0.1:11434"

Q3: 能否使用非 Llama 系列模型?
目前支持 Llama、Llama 2、Llama 3 等开源模型,其他闭源模型需通过官方 API 调用。

Q4: 如何监控模型运行状态?
使用 ollama status 命令查看 GPU 使用率和内存占用情况。

总结

Ollama 教程完整覆盖模型安装、运行、管理及性能调优方案,帮助开发者快速构建本地 AI 服务环境。