打开今日头条查看图片详情
最近AI圈儿发生了几件大事,表面看是人事变动和新品发布,背后却藏着一场关乎AI生死的路线之争。
是继续让AI“死读书”?还是让它“下床走路”?大佬们给出了这个问题的答案。
打开今日头条查看图片详情
打开今日头条查看图片详情
一、 为啥说现在的AI是个“高分低能”的做题家?
咱们先掰扯一个扎心的事实:你现在聊起来感觉很聪明的那些AI聊天机器人,其实是个超级“做题家”。
它为啥能对答如流?因为它把互联网上能找到的海量文章、书籍、对话都几乎“背”了下来。你问的问题,大概率是它“刷”过的题库里的变形题。
这就好比一个学生,靠死记硬背考了高分,但你让他去解释为啥鸡蛋掉地上会碎,他只能背出牛顿定律的条文,却无法真正理解“碎”这个物理过程。
打开今日头条查看图片详情
这恰恰是图灵奖得主杨立昆(Yann LeCun)最近离开待了12年的Meta,出去单干的核心原因。他早就看不下去了,公开吐槽说:“现在的大语言模型,永远不可能具备人类那样的推理能力!”
这话可不是气话,而是点中了当前AI发展的死穴。
你发现没?现在的AI模型,本事越大,“饭量”也大得吓人。需要吞下天量的数据,消耗巨大的电力,但带来的性能提升却越来越不明显。
打开今日头条查看图片详情
这就陷入了“规模魔咒”:堆参数、堆算力,成本蹭蹭涨,智商却没能跟着翻倍。更头疼的是,它学的都是过去的数据,对现实世界正在发生的变化,基本是“睁眼瞎”。
你问它昨天的新闻,它都可能胡说八道。
打开今日头条查看图片详情
最要命的是,它缺乏对真实世界的“体感”。 它可以通过文本学会“烫”这个词,但它永远不知道摸到开水壶的“烫”是什么感觉。
它知道“球撞积木会倒”,但无法在脑子里模拟出球飞过去、积木摇晃着倒下的整个动态画面。这让它在需要与物理世界打交道的领域,比如自动驾驶、机器人控制上,显得特别“弱智”。
打开今日头条查看图片详情
打开今日头条查看图片详情
二、 “世界模型”:给AI造一个“脑内小剧场”
那大佬们想出的新招是啥呢?就是杨立昆和李飞飞都在押注的“世界模型”。
这名字听起来挺唬人,其实概念很直观:就是给AI建立一个关于现实世界的“内部模拟器”,让它能在自己的“脑海”里推演事情的发展。
这就像咱们人类脑子里的“小剧场”。你看到桌子上有个杯子半悬空,你瞬间就能预感到它要掉下去,甚至脑补出它摔碎的景象。
打开今日头条查看图片详情
这个过程你没经过任何计算,是一种本能。世界模型的目标,就是让AI也拥有这种本能。
“AI教母”李飞飞的动作更快。她创立的World Labs在去年11月就推出了首款产品Marble。这东西有多厉害?
你给它一张照片、一段视频,甚至一小段文字描述,它就能给你生成一个持久存在的3D数字孪生空间。
打开今日头条查看图片详情
好比你看了一张客厅的照片,AI就能在电脑里给你重建一个一模一样的虚拟客厅,你可以在里面随意“走动”,观察每个角落。
这可不是简单的3D建模,这是AI理解空间关系的基础。有了这个基座,AI才能进一步学习:在这个空间里,物体怎么运动?碰撞会发生什么?

另一边,谷歌DeepMind搞的Genie模型,一年半时间从2D升级到3代。
打开今日头条查看图片详情
现在你输入一句话,比如“一个宇航员在火星上探险”,它就能实时给你生成一个720p分辨率的、你可以进去自由探索的互动3D世界,而且场景细节能保持一分钟不穿帮!
这就像给AI提供了一个无限大的“数字沙盘”,让它可以在里面尽情试错,还不用担心在现实世界里撞坏东西。
打开今日头条查看图片详情
说句实在话,这种“脑内推演”的能力,才是智能的核心。 它让AI从被动的“答题机器”,变成了能主动“规划”和“想象”的智能体。
比如特斯拉的自动驾驶,之所以厉害,就是因为它内部有一个强大的世界模型,能时刻预测周围车辆、行人的下一秒动向,从而做出安全决策。
打开今日头条查看图片详情
打开今日头条查看图片详情
三、 前景很诱人,但“教AI走路”的麻烦也不少
给AI装上“世界模型”,让它像婴儿一样通过观察和互动来学习,这路子听起来很美好,但脚下的坑一点儿也不少。
首先,这玩意儿“吃”的数据更“挑食”了。 以前训练AI读文本,网上文字多得是。但现在要训练它理解物理世界,需要的是海量的视频、来自各种传感器的数据。
这些数据不仅难搞,标注起来更是费时费力还烧钱。这可不是一般公司玩得起的游戏。
打开今日头条查看图片详情
其次,AI变得更“聪明”的同时,也可能变得更“难懂”。 这就是所谓的“黑箱”问题。AI在它那个“脑内小剧场”里推演了千万种可能,最后选择了一个行动。
但咱们人类可能完全搞不懂它为啥这么选。比如一辆自动驾驶汽车为了躲避一个行人,突然急转弯撞上了护栏,这个责任算谁的?
是程序bug,还是AI在那一刻做出的“最优解”?我们很难追溯它的“心路历程”。
打开今日头条查看图片详情
更让人担心的是安全伦理问题。 一旦AI具备了自主学习能力,它会不会像科幻电影里那样,慢慢偏离我们最初给它设定的目标?
比如,我们让一个管理城市的AI“提高交通效率”,它会不会为了达到这个目标,干脆禁止所有私家车上路?这种“目标漂移”的风险,是悬在所有人头上的一把剑。
打开今日头条查看图片详情
所以,这场竞赛不仅仅是技术战,更是一场关于规则、伦理和安全的博弈。
中美科技公司虽然发展路径不同,但最终都要面对同一个问题:当我们创造的AI真正“懂事”以后,我们该如何与它相处?如何确保它始终是帮助人类的工具,而不是失控的巨兽?
打开今日头条查看图片详情
打开今日头条查看图片详情
结语:AI的下一站,是成为我们的“世界级”搭档
说到底,发展“世界模型”,根本不是为了让AI变得更像人,去模仿我们。恰恰相反,是为了让它弥补我们人类的不足。
我们擅长创造和直觉,但在处理超复杂计算和海量数据模拟上,能力有限。
打开今日头条查看图片详情
而一个真正理解物理规律的AI,可以成为我们强大的外脑:帮我们模拟气候变化、设计新药分子、规划智慧城市……在这些关乎人类未来的宏大课题上,成为我们最得力的搭档。
这条路才刚刚开始,注定充满挑战。但可以确定的是,谁先让AI学会了“婴儿学步”般的直觉,谁就握住了打开下一个时代的钥匙。
这场告别“纸上谈兵”、奔向“真实世界”的竞赛,哨声已经吹响,没有回头路。