✅ 运行模型的基本命令
Ollama 的运行逻辑非常类似于 Docker,一条命令即可启动模型交互。
ollama run <模型名>
例如:
ollama run llama2
系统会自动:
- 拉取模型(如果未下载)
- 加载并运行模型
- 启动交互式对话界面
🧠 支持的热门模型列表(部分)
模型名称 | 说明 |
---|---|
llama2 | Meta 开源大模型,支持中英文 |
mistral | 小巧高效,推理速度快 |
gemma | Google 开源模型,适合中文场景 |
qwen | 阿里开源模型,优化中文对话 |
code-llama | 编程能力强,适用于代码补全、生成等 |
运行示例:
ollama run qwen
💡 查看所有支持模型
ollama list
或者访问官网模型库页面查看:https://ollama.com/library
📦 模型预下载(非交互模式)
ollama pull mistral
用于提前拉取模型,适合自动化部署、离线环境。
🛠 自定义模型运行(系统提示)
你可以使用 Modelfile
创建自定义模型,然后运行它:
ollama create my-custom-model -f Modelfile
ollama run my-custom-model
例子:
FROM llama2
SYSTEM "你是一个专精中文历史的专家,请用专业中文回答问题。"
🌐 启动本地 REST API 服务(用于调用)
ollama serve
然后你可以通过接口调用:
curl http://localhost:11434/api/generate \
-d '{
"model": "llama2",
"prompt": "请介绍一下唐朝的历史"
}'
🛑 停止模型运行
按 Ctrl + C
即可停止当前模型运行。
🧩 与前端工具结合
你可以使用以下工具可视化地与模型交互:
- Open WebUI
- Ollama UI
- LM Studio(支持直接调用 Ollama)
发表回复