✅ 系统要求
系统 | 要求说明 |
---|---|
macOS | 支持 Intel 和 Apple Silicon (M1/M2/M3) |
Linux | 推荐 Ubuntu 20.04+,支持 GPU(可选) |
Windows | 目前需通过 WSL(Windows Subsystem for Linux)间接安装 |
内存/显存 | 至少 8GB RAM,推荐 16GB,GPU 可选加速 |
🍎 macOS 安装(推荐用 Homebrew)
步骤:
brew install ollama
安装完成后运行:
ollama run llama2
首次运行会自动下载模型并进入交互模式。
✅ macOS Apple Silicon 支持 Metal 加速,非常适合本地推理。
🐧 Linux 安装(Ubuntu/Debian/Arch 等)
通用脚本安装:
curl -fsSL https://ollama.com/install.sh | sh
验证安装:
ollama --version
启动模型:
ollama run mistral
如果系统有 NVIDIA GPU,可以启用 CUDA 加速。确保已安装 NVIDIA 驱动 + CUDA Toolkit。
🪟 Windows 安装(通过 WSL)
步骤:
- 启用 WSL2,安装 Ubuntu 子系统
- 打开 Ubuntu 终端,执行:
curl -fsSL https://ollama.com/install.sh | sh
- 安装完成后,在 Ubuntu 中运行:
ollama run llama2
💡 Ollama 官方正在开发原生 Windows 支持(目前为技术预览)。
📦 安装完成后验证
使用以下命令测试:
ollama run mistral
若看到:
>>> Hello, how can I help you?
说明安装成功 🎉
🧠 小贴士
- 模型默认存储在
~/.ollama
(可配置缓存目录) - 可运行
ollama list
查看已下载模型 - 使用
ollama pull modelname
预先下载模型 - 使用
ollama serve
启动本地 REST API 服务
发表回复