大家好,我是 Ai 学习的老章
Ollama 是咱公众号常客
Ollama 发布新 app,文档聊天,多模态支持,可在 macOS 和 Windows 上使用
我发现 Ollama 有有了新模式——不用本地计算资源,直接运行云模型
首先自然是安装 Ollama 客户端:https:///
然后注册账户:https:///signin
启动 Ollama 之后,命令行先来看看都有哪些模型可以云端运行
curl https:///api/tags
我找了 json 可视化工具,看的更清楚
-
gpt-oss:20b-cloud -
gpt-oss:120b-cloud -
deepseek-v3.1:671b-cloud -
qwen3-coder:480b-cloud
deepseek-v3.1 都给,真豪横啊
然后从命令行 ollama signin登录,目前预览阶段,自动跳转,不太友好
我还是喜欢直接在 app 操作,点击 Signin自动跳转
然后右下角选择后缀有-cloud 的模型即可开始聊天
最后,最重要的 这个云端模型还可以 API 调用
首先创建 Key:https:///settings/keys 复制备用
然后 python 中就可以调用了
from ollama import Client
client = Client(
host="https://",
headers={'Authorization': '<api key>'}
)

messages = [
{
'role': 'user',
'content': 'Why is the sky blue?',
},
]
for part in client.chat('gpt-oss:120b', messages=messages, stream=True):
print(part['message']['content'], end='', flush=True)
也可以配置到其他工具中,比如 Obsidian AI,Claude Code,VSCode
API base url: https:///api/chat
api key填上面创建并复制好的,模型名称选上面那几个-cloud的
curl https:///api/chat
-H "Authorization: Bearer <api key>"
-d '{
"model": "gpt-oss:120b",
"messages": [{
"role": "user",
"content": "Why is the sky blue?"
}],
"stream": false
}'
以上,本文完。
对了,这四个模型的免费额度不确定有多少,毕竟预览阶段,能薅尽薅吧。
DeepSeek-V3.1:671B-cloud还是很香的。