大家好,我是 Ai 学习的老章

Ollama 是咱公众号常客

为何要本地部署大模型

全面超越 _Ollama_,实测拉垮

不要再用_Ollama_,不要再用 llama.cpp

Ollama 发布新 app,文档聊天,多模态支持,可在 macOS 和 Windows 上使用

我发现 Ollama 有有了新模式——不用本地计算资源,直接运行云模型

首先自然是安装 Ollama 客户端:https:///

然后注册账户:https:///signin

启动 Ollama 之后,命令行先来看看都有哪些模型可以云端运行

curl https:///api/tags


我找了 json 可视化工具,看的更清楚

  • gpt-oss:20b-cloud
  • gpt-oss:120b-cloud
  • deepseek-v3.1:671b-cloud
  • qwen3-coder:480b-cloud

deepseek-v3.1 都给,真豪横啊

然后从命令行 ollama signin登录,目前预览阶段,自动跳转,不太友好

我还是喜欢直接在 app 操作,点击 Signin自动跳转

然后右下角选择后缀有-cloud 的模型即可开始聊天

最后,最重要的 这个云端模型还可以 API 调用

首先创建 Key:https:///settings/keys 复制备用

然后 python 中就可以调用了

from ollama import Client

client = Client(
    host="https://",
    headers={'Authorization''<api key>'}
)
Ollama 可以启动云端大模型了,免费

messages = [
  {
    'role''user',
    'content''Why is the sky blue?',
  },
]

for part in client.chat('gpt-oss:120b', messages=messages, stream=True):
  print(part['message']['content'], end='', flush=True)

也可以配置到其他工具中,比如 Obsidian AI,Claude Code,VSCode

API base url: https:///api/chat

api key填上面创建并复制好的,模型名称选上面那几个-cloud的

curl https:///api/chat 
  -H "Authorization: Bearer <api key>" 
  -d '{
    "model": "gpt-oss:120b",
    "messages": [{
      "role": "user",
      "content": "Why is the sky blue?"
    }],
    "stream": false
  }'

以上,本文完。

对了,这四个模型的免费额度不确定有多少,毕竟预览阶段,能薅尽薅吧。

DeepSeek-V3.1:671B-cloud还是很香的。