2025-09-19 18:22
前言:
ICPC编程,曾经是我们所有人引以为傲的地方,即便是AI又能怎样?不依旧是人类编程打造的?
可是慢慢的大家也发现了有些不对,从柯洁在围棋上失败开始,大家就开始担心某天人类被AI统治。
但毕竟我们还有着自己的最后一丝尊严,那就是编程上的成功,可是现如今人类在这一领域一样输给了AI。
AI大获全胜
2025 年 9 月 18 号凌晨,编程圈炸了个大新闻,OpenAI 和谷歌的 AI 模型,直接闯进了全球最牛的大学编程竞赛 ICPC,还拿了金牌级成绩,把不少人类学霸团队都比下去了。
这事儿可不是小打小闹,要知道 ICPC 可是有编程界 “世界杯” 的名头,每年近 3000 所大学、103 个国家的人参赛,比的就是谁能在 5 小时内解出 12 道超复杂算法题,解题对不对、快不快都算分,含金量高得吓人。
先说 OpenAI,这次直接拿了满分,12 道题全答对了。
更厉害的是,11 道题一次性就做对,就最难的那道题,提交 9 次也成功了。要是跟人类团队比,它能排第一。
关键是 OpenAI 没专门为 ICPC 训练模型,就靠通用推理模型组合上阵,GPT-5 负责解了 11 道题,最难的那道是另一个实验性推理模型搞定的,还负责筛选要提交的方案,这通用性是真强。
再看谷歌,它家 Gemini 2.5 Deep Think 高级版本也不差,拿了金牌级别表现,解出 10 道题,跟人类比能排第二。
不过它比人类晚 10 分钟开始,总共花了 677 分钟才做完。有意思的是,其中 8 道题 45 分钟就搞定了,但另外 2 道题足足花了 3 小时,还有 3 道题的解题时间比人类快。
更绝的是,有道叫 “问题 C” 的难题,所有人类团队都卡壳了,它半小时就解出来了。
这道题是让设计管道网络给储液罐送液体,管道能开能关还能调开度,配置无限多,找最优解特别难。
未来发展
这事儿对软件开发影响也大,要是把 AI 和人类的最佳解决方案结合,这次 12 道题都能彻底解对。AI 能提供独特思路,帮人类专家补短板。
而且 ICPC 的题需要理解复杂问题、设计多步骤逻辑计划并完美实施,这和新药研发、微芯片设计等科学工程领域需要的技能一样,说明 AI 在抽象推理上的能力,未来能在更多领域发挥作用。

OpenAI 的研究人员也说,他们用同一组模型参加 IMO 和 IOI(国际信息学奥林匹克竞赛),就是想展示模型的性能和通用性。
ICPC 全球执行董事 Bill Poucher 博士也说,ICPC 一直想在解题上设最高标准,Gemini 这次的成绩,标志着到了定义下一代 AI 工具和学术标准的关键时候。
从 IMO 到 ICPC,OpenAI 和谷歌的模型在难的数学、推理题上的潜力越来越明显。
这些突破证明,大模型在解决抽象推理问题上进步巨大,以后和人类专家配合,肯定能解决更复杂的难题。
AI 和人类不是非此即彼,而是能互相成就,这可能就是未来科技发展的大方向。
中国大学成绩喜人
说完 AI,再看人类团队。这次 139 支队伍里,就 4 支拿了金牌,分别是圣彼得堡国立大学、东京大学、北京交通大学和清华大学。
其中圣彼得堡国立大学最厉害,解出 11 道题,总用时 1478 分钟,提交 21 次对了 11 次;东京大学和解出 10 道题,用时 1116 分钟,提交 11 次对 10 次。
咱们国内的北京交通大学也解出 10 道题,用时 1425 分钟,提交 18 次对 10 次,是国内第一。
清华大学解出 9 道题,用时 865 分钟,提交 15 次对 9 次。
能在这么多队伍里冲金,这些人类学霸的实力也没得说。其实这不是 AI 第一次在顶尖竞赛出彩了,两个月前,OpenAI 的推理系统和谷歌的 Gemini 2.5 Deep Think 就在国际数学奥林匹克竞赛(IMO)上证明过自己。
这次 ICPC 的表现,更能看出大模型的厉害。
谷歌说 Gemini 能有这成绩,靠的是预训练、训练后、强化学习技术、多步骤推理和平行思维这些技术创新。
比如强化学习时,会训练 Gemini 给编程难题推理、写代码,从反馈里改进;解决问题时,多个 Gemini Agent 会各自提方案,执行代码测试后再迭代,效率很高。
而且谷歌内部研究显示,Gemini 2.5 Deep Think 高级版本在 2023 和 2024 年的 ICPC 总决赛也能拿金牌,水平不亚于全球前 20 名竞技开发者。
结语:
虽然此次人类在编程领域输给了AI,可是毕竟人类在很多事情上还是领先AI,在常规的推理上确实AI很强。
不过在抽象些的领域中,AI依旧是落后人类太多,未来如果有这AI配合,我们发展起来必然会更加快捷。