快速解决
直接通过命令行安装并启动 Ollama 服务,本地运行 Llama 系列模型:
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3
常用方法
| 命令 | 功能 | 使用频率 |
|---|---|---|
ollama run <模型名> |
启动指定模型服务 | ★★★★★★ |
ollama list |
列出已安装模型 | ★★★★★☆ |
ollama pull <模型名> |
下载模型到本地 | ★★★★★★ |
ollama stop <模型名> |
停止模型服务 | ★★★★☆☆ |
ollama create <模型名> |
创建自定义模型 | ★★★★☆☆ |
ollama logs |
查看运行日志 | ★★★☆☆☆ |
详细说明
模型安装与运行
curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3
ollama run llama3
> 你好
> exit
模型管理
ollama list
ollama stop llama3
ollama prune
自定义模型部署
ollama create my_model -f model_config.json
{
"name": "my_model",
"model": "/path/to/your/model.bin",
"license": "MIT",
"description": "自定义训练的中文模型",
"parameters": {
"temperature": 0.7,
"context_length": 2048
}
}
高级技巧
1. 模型微调适配
ollama fine-tune my_model --data /path/to/data.jsonl
[
{"input": "用户问题", "output": "预期答案"},
{"input": "第二个输入", "output": "第二个输出"}
]
2. API 接口调用
curl -X POST http://localhost:11434/api/generate \
-H "Content-Type: application/json" \
-d '{
"model": "llama3",
"prompt": "写一个关于人工智能的比喻",
"stream": false
}'
3. 性能优化设置
ollama run llama3 -g 0.75
ollama run llama3 -c 4096 -b 2048
常见问题
Q1: Ollama 安装后无法启动怎么办?
检查系统是否满足最低配置要求(至少 8GB RAM),并确保已安装最新版 Docker(Linux/macOS 推荐)。
Q2: 如何更换模型存储路径?
通过环境变量设置:
export OLLAMA_HOST="http://127.0.0.1:11434"
$env:OLLAMA_HOST="http://127.0.0.1:11434"
Q3: 能否使用非 Llama 系列模型?
目前支持 Llama、Llama 2、Llama 3 等开源模型,其他闭源模型需通过官方 API 调用。
Q4: 如何监控模型运行状态?
使用 ollama status 命令查看 GPU 使用率和内存占用情况。
总结
Ollama 教程完整覆盖模型安装、运行、管理及性能调优方案,帮助开发者快速构建本地 AI 服务环境。