大家好,我是 Ai 学习的老章
太卷了,昨天Qwen3 发了一个「微不足道」的小更新,碾压 Kimi K2、DeepSeek V3
今天又放出了 Qwen3-Code—— 迄今为止最具代理能力的代码模型
Demo1:模拟烟囱拆除
Demo2:VS Code中生成烟花效果
Demo3:3D地球
Demo4:打字机效果
Demo5:小球沿立方体轨迹旋转
Demo6:模拟太阳系行星运转
Demo7:二重奏游戏
还有基于 Gemini Code 二次开发的 Qwen Code —— 进行了 prompt 和工具调用协议适配,使得 Qwen Code 可以最大程度激发 Qwen3-Coder 在 Agentic Coding 任务上的表现。
鉴于官方文档写的足够详细,不但有模型细节、详细测评数据、测试样例,还给出了Qwen Code的安装和与Claude Code、CLINE的集成
我本人也在Claude Code 使用教程,对接 DeepSeek-R1 和 Kimi K2和Kimi 这模型,真大这两篇文章中介绍过Claude Code、CLINE接入第三方模型的方法。所以,这篇文章我就不重复官方文档内容了,介绍点额外信息。

Code 模型很烧钱🔥💰
阿里还是财大气粗,每个模型赠送 100 万 tokens 使用额度
阿里云百炼在模型广场已经放出了两款 Coder 模型
两者都是基于 Qwen3 的代码生成模型,迪欧具有强大的 Coding Agent 能力
Plus 更强一些:擅长工具调用和环境交互,能够实现自主编程、代码能力卓越的同时兼具通用能力。
上下文最大长度:Plus 是 1M,480B-A35B-Instruct 是 256K
但是价格对应的也高了不少
qwen3-coder-plus-2025-07-22:
| 输入 Token 数 | 输入成本(每百万 Token) | 输出成本(每百万 Token) |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
qwen3-coder-480b-a35b-instruct:
| 输入 Token 数 | 输入成本(每百万 Token) | 输出成本(每百万 Token) |
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
对比昨天刚放出的 qwen3-235b-a22b-instruct-2507,每百万 Token 输入、输出仅仅、2.8
本地部署更烧钱
BF16 版本,模型文件 960GB+
FP8 版,480GB,需要一台 8 卡 80GB 版 H20 才能跑起来吧
量化版来的很快
这里 unsloth 不隔夜,立即放出了量化版
2-bit Q2_K_XL 模型文件 180 GB 3-bit Q3_K_XL 模型文件 213 GB 4-bit Q4_K_XL 模型文件 276 GB
2-bit 比原版减少 80% 的显存占用!即便如此也需要 4 张 H20
另外 1M 上下文版本 Dynamic 2.0 GGUF,截止发文,还未上传完成,可以坐等:https:///unsloth/Qwen3-Coder-480B-A35B-Instruct-1M-GGUF/tree/main
免费体验
除了官方网页:https://chat./
还有百炼的免费 API
openrouter 也有免费使用的 API
https:///qwen/qwen3-235b-a22b-07-25:free
制作不易,如果这篇文章觉得对你有用,可否点个关注。给我个三连击:点赞、转发和在看。若可以再给我加个🌟,谢谢你看我的文章,我们下篇再见!
搭建完美的写作环境:工具篇(12 章)图解机器学习 – 中文版(72 张 PNG)ChatGPT、大模型系列研究报告(50 个 PDF)108 页 PDF 小册子:搭建机器学习开发环境及 Python 基础 116 页 PDF 小册子:机器学习中的概率论、统计学、线性代数 史上最全!371 张速查表,涵盖 AI、ChatGPT、Python、R、深度学习、机器学习等