✅ 运行模型的基本命令

Ollama 的运行逻辑非常类似于 Docker,一条命令即可启动模型交互。

ollama run <模型名>

例如:

ollama run llama2

系统会自动:

  1. 拉取模型(如果未下载)
  2. 加载并运行模型
  3. 启动交互式对话界面

🧠 支持的热门模型列表(部分)

模型名称说明
llama2Meta 开源大模型,支持中英文
mistral小巧高效,推理速度快
gemmaGoogle 开源模型,适合中文场景
qwen阿里开源模型,优化中文对话
code-llama编程能力强,适用于代码补全、生成等

运行示例:

ollama run qwen


💡 查看所有支持模型

ollama list

或者访问官网模型库页面查看:https://ollama.com/library


📦 模型预下载(非交互模式)

ollama pull mistral

用于提前拉取模型,适合自动化部署、离线环境。


🛠 自定义模型运行(系统提示)

你可以使用 Modelfile 创建自定义模型,然后运行它:

ollama create my-custom-model -f Modelfile
ollama run my-custom-model

例子:

FROM llama2
SYSTEM "你是一个专精中文历史的专家,请用专业中文回答问题。"


🌐 启动本地 REST API 服务(用于调用)

ollama serve

然后你可以通过接口调用:

curl http://localhost:11434/api/generate \
  -d '{
    "model": "llama2",
    "prompt": "请介绍一下唐朝的历史"
  }'


🛑 停止模型运行

Ctrl + C 即可停止当前模型运行。


🧩 与前端工具结合

你可以使用以下工具可视化地与模型交互: