Ollama 安装 完整指南
快速解决
在 Linux 或 macOS 上安装 Ollama 只需一个命令即可完成:
curl -fsSL https://ollama.com/install.sh | sh
这条命令会下载并运行 Ollama 的官方安装脚本,适合需要快速部署 Ollama 本地大模型服务的用户。
常用方法
以下是最常见的几种 Ollama 安装方式,适用于不同操作系统和用户需求,按推荐使用频率排序:
| 方法 | 操作系统 | 说明 | 命令 |
|---|---|---|---|
| 官方脚本安装 | Linux、macOS | 快速、简洁、推荐使用 | `curl -fsSL https://ollama.com/install.sh |
| 使用 Docker 安装 | Linux、macOS、Windows(通过 WSL) | 适合熟悉 Docker 的开发者 | docker run -d -p 11434:11434 -v ollama:/root/.ollama ollama/ollama |
| 手动下载安装包 | 所有平台 | 更灵活,适合高级用户 | 从官网下载对应系统的二进制文件后手动配置 |
| 使用 Homebrew 安装 | macOS | Homebrew 用户的便捷方式 | brew install ollama |
| 使用 Snap 安装 | Linux | 适合 Ubuntu 等支持 Snap 的系统 | sudo snap install ollama |
详细说明
Linux 使用官方脚本安装
curl -fsSL https://ollama.com/install.sh | sh
该命令会下载 Ollama 的安装脚本并立即执行,安装完成后会自动配置服务和依赖项。
建议在有网络连接的环境中执行,且拥有 sudo 权限。
macOS 使用 Homebrew 安装
brew install ollama
如果你使用的是 macOS,并且已经安装了 Homebrew,可以直接使用该命令安装 Ollama。
安装完成后,使用 ollama run llama2 即可运行模型。
Docker 部署 Ollama
docker run -d -p 11434:11434 -v ollama:/root/.ollama ollama/ollama
-d:后台运行容器-p 11434:11434:将容器的 11434 端口映射到主机-v ollama:/root/.ollama:挂载持久化数据卷,防止容器删除后数据丢失
这种方式适合需要快速部署并便于管理的开发环境。
高级技巧
使用 Docker Compose 管理 Ollama
如果你有多个服务或需要更复杂的部署,可以使用 Docker Compose:
version: "3.8"
services:
ollama:
image: ollama/ollama
ports:
- "11434:11434"
volumes:
- ollama:/root/.ollama
volumes:
ollama:
保存为 docker-compose.yml,运行 docker-compose up -d 即可启动服务。
通过配置文件设置模型存储路径
在安装 Ollama 后,可以通过修改配置文件指定模型存储路径,提升管理效率:
echo 'export OLLAMA_HOST="0.0.0.0:11434"' >> ~/.bashrc
echo 'export OLLAMA_MODELS="/path/to/custom/models"' >> ~/.bashrc
source ~/.bashrc
OLLAMA_HOST:设置监听地址和端口,0.0.0.0 表示允许外部访问OLLAMA_MODELS:自定义模型存储位置,便于统一管理和备份
常见问题
Q1: 安装后如何验证 Ollama 是否运行?
运行以下命令查看版本和状态:
ollama --version
ollama list
--version:显示当前安装的 Ollama 版本list:列出已加载的模型
如果返回正常信息,说明安装成功。
Q2: 如何在 Windows 上安装 Ollama?
目前 Ollama 官方不支持 Windows 原生安装,但可以通过 WSL(Windows Subsystem for Linux)运行:
- 启用 WSL 并安装 Linux 发行版(如 Ubuntu)
- 在 Linux 子系统中运行
curl -fsSL https://ollama.com/install.sh | sh
Q3: 安装失败时如何排查?
如果安装脚本执行失败,首先检查网络是否正常。可以尝试手动下载安装包:
- 访问 Ollama 官网 下载对应平台的二进制文件
- 解压后将
ollama可执行文件移动到/usr/local/bin并赋予执行权限:
chmod +x ollama
sudo mv ollama /usr/local/bin
总结
本文提供了 Ollama 安装 的多种方法,包括快速命令、Docker 部署和高级配置技巧,帮助开发者在不同系统上高效部署本地大模型服务。