Anthropic联创:最快2028年,60%概率AI将学会自己研发下一代AI
Anthropic联合创始人Jack Clark在他的Import AI基于对前沿研究详细分析的AI周报第455期发表了一篇文章。翻开各大科技公司的论文、技术博客五花八门的技术更新早已让人感到有些疲惫。大家往往习惯性地追问下一个真正颠覆人类认知的技术突破口到底在哪里。Jack Clark完全基于公开可查的资料预测最迟到2028年底AI有超过60%的概率能够完全摆脱人类干预自主研发出下一代更聪明的系统。依靠堪称恐怖的代码编写进化速度、不断延长的独立自主工作时间以及对繁琐科研任务的全面接管机器正在全链路主导自身的研发流程一个无法预测的未来正加速到来。敲代码的奇点系统诞生于软件软件的底层建筑全是代码。代码的生产方式已经被彻底颠覆。背后的驱动力非常直接模型编写复杂真实业务代码的能力突飞猛进把写代码测试代码各项任务串联起来的能力也达到了全新的高度完全不需要人类在一旁监督。有两个关键指标把前沿趋势展现得淋漓尽致一个是SWE-Bench另一个是METR的时间跨度图表。SWE-Bench是一个被广泛认可的编程测试基准。它专门评估智能系统解决真实世界中GitHub平台上软件工程问题的能力。2023年底测试刚发布时表现最好的Claude 2模型总成功率只有大约2%。时间推移到今天Claude Mythos Preview模型的成绩达到了93.9%几乎把测试彻底打穿了。任何测试基准都存在固有的噪音极限分数高到一定程度挑战的其实是测试本身的缺陷而不是模型的能力边界。如今去一趟硅谷走访各大前沿实验室绝大多数工程师已经完全依赖自动化系统来编写代码。大家愈发习惯把写测试用例和代码检查的活一起交接出去。程序已经足够优秀它们正在把研发过程中的重要环节自动化给所有从事相关工作的人类按下了加速键。衡量一项任务的复杂程度看一个熟练的人类需要花多少小时去完成是一个好办法。METR追踪的核心指标是测算机器在面对一揽子任务时能够保持50%可靠性的最长独立工作时间。进步速度极其惊人。2022年GPT-3.5只能处理人类大概需要花30秒完成的任务。2023年GPT-4把时长拉长到了4分钟。2024年o1模型做到了40分钟。2025年GPT 5.2High达到了6小时。到了2026年Opus 4.6模型已经可以将时长延展到12小时左右。在METR工作多年的预测专家Ajeya Cotra认为到2026年底前期望自动化工具独立完成人类需要耗费100小时才能搞定的任务一点都不夸张。独立工作时间的不断延长恰好与各类Agent智能体编程工具的爆发式增长完美吻合。工具产品化演进让机器开始代理人类工作能够长时间独立采取行动。视线回到研发日常。仔细观察研究员的工作大量任务无非是清理数据、阅读文献、启动实验每一项大概耗费几个小时。所有细碎工作现在都已经落在了现代机器的能力覆盖范围之内。把工作分配出去有两个先决条件既要相信对方的技术能力也要相信对方能在脱离监督的情况下依然紧贴意图把活干完。数字员工不仅技术越来越好脱离人类独立工作的时间也越来越长。工程师和研究员正在把越来越大块头的工作甩出去分配出去的任务也变得越来越复杂和核心。搞科研的苦力现代科学研究有一套标准流程。敲定一个想要获取经验数据的方向跑实验生成数据最后对实验结果进行常识性核查。代码能力的持续进步加上LLM强大的通用世界建模能力催生出了一大批实用工具正在给人类科学家加速甚至部分接管了广泛意义上的研发环节。我们可以拆解几项核心科学技能。复现研究结果把各种机器学习技术拼凑起来解决难题以及优化底层代码。在各个维度上进步的速度肉眼可见。阅读科学论文并复现其中的结果是一项核心日常。针对此类任务的各项基准测试记录已经被频频刷新。CORE-Bench是一个绝佳的例子。它专门针对计算复现能力会丢出一个包含研究论文及代码仓库的压缩包要求被测对象安装运行库及依赖包然后把代码跑起来。代码运行成功后还需要检索所有输出结果来回答具体的任务问题。2024年9月测试刚推出时得分最高的是在一个名叫CORE-Agent框架里运行的GPT-4o模型它在最难的任务集上拿到了约21.5%的分数。到了2025年12月核心作者直接宣布测试被攻克Opus 4.5模型拿下了95.5%的超高分。构建完整的机器学习系统去参加Kaggle竞赛同样不再是人类的专利。MLE-Bench是一项专门考验离线参赛能力的测试涵盖自然语言处理、计算机视觉和信号处理等75个不同领域的真实竞赛。2024年10月刚上线时最顶尖的系统拿到了16.9%的分数。到了2026年2月在一个配有搜索功能的Harness测试套件里运行的Gemini3模型已经把最高分刷到了64.4%。内核优化是一块特别硬的骨头。研究员需要编写并打磨底层代码把矩阵乘法这类特定操作完美映射到硬件上。内核优化是底层心脏决定了训练和推理的效率关乎到底能把多少算力有效地转化为研发进度。内核设计曾经只是个冷门领域现在已经成了各家竞争的红海。有人尝试构建更好的GPU内核有人在做PyTorch模块到CUDA代码的自动转换。Meta公司在用大语言模型自动生成优化的Triton内核供自家基础设施使用更有专门微调开源模型来做GPU内核设计的项目。内核设计有一些特别适合自动化主导研发的属性比如奖励反馈非常容易验证。比内核设计更难一点的是微调语言模型。PostTrainBench专门考察前沿模型能不能把较小的开源模型拿过来通过微调提升它们在基准测试上的表现。测试有非常强大的基准线现有的经过指令微调的模型全都是顶尖实验室里极其优秀的研究员的心血想要超越极难。截至2026年3月自动化后期训练带来的性能提升幅度已经达到了人类专家提升幅度的大约一半。每一轮测试都会要求一个命令行工具想尽办法去最大化某个基础模型在特定测试上的表现最后算出加权平均值。到了4月份得分最高的Opus 4.6和GPT 5.4达到了25%到28%对比人类专家的51%得分数据非常有分量。Anthropic公司提供了一个绝佳的观察窗口一直在记录自家系统在一项特定任务上的表现要求把一个纯CPU的小语言模型训练实现代码优化到运行速度的极限。衡量标准就是优化后代码比原始代码快了多少倍。2025年5月Claude Opus 4实现了2.9倍的平均加速。2025年11月Opus 4.5把倍数推到了16.5倍。2026年2月Opus 4.6干到了30倍。2026年4月Claude Mythos Preview模型直接飙到了52倍。人类研究员大概需要埋头苦干4到8个小时才能实现区区4倍的加速。系统也在学着怎么搞对齐研究。Anthropic搞了一个自动化概念验证项目人类设定一个研究方向由多个智能体组成的团队自主去探索试图在安全研究问题上拿到比人类基准更高的分数。方法真的见效了合成团队想出来的技术方案击败了人工设计的基准线。把今天的数字员工扔到当代最前沿的研究难题上已经能看到非常有价值的回报。像Claude Code或OpenCode这种广泛部署的产品里单个管理者经常会监督多个子程序。多智能体架构让系统能够去扛那些需要不同专业背景并行协作的大型项目整个工程的指挥棒握在充当管理者的数字大脑手里。创新的火花机器到底更像一步步发现广义相对论的“爱因斯坦”还是像按部就班地拼乐高的“复印机”。现阶段的底层逻辑大概率还发明不出什么颠覆性的新思想但技术的发展可能根本不需要拥有强创造力也能实现自我进化的闭环。纵观整个领域前进的驱动力主要来自于做越来越大的实验塞进去更多的数据和算力。偶尔有人类灵光一闪提出颠覆性想法比如Transformer架构或混合专家模型。剥离掉罕见的高光时刻前进步伐显得非常朴实无华。大家有条不紊地陷入一个巨大的循环拿一个表现不错的基座扩大某项指标修补规模扩大带来的系统漏洞然后再继续扩大。整个过程全是枯燥乏味的工程苦力活。很大一部分研究就是在现有实验基础上搞各种变体跑一跑不同的参数看看结果如何完全可以交给机器自己去试错。爱迪生说过天才是百分之一的灵感加上百分之九十九的汗水。一百五十年后的今天名言依然适用。绝大多数时候是人类在不断调试系统的苦差事中流尽了汗水才推着进度条往前挪了一寸。数字大脑在干苦差事上表现得炉火纯青绝对有能力把细碎任务串联成复杂的超级工程。即便天生缺乏创造力押注其能推动自身发展依然是一笔稳赚不赔的买卖。多看两眼公开数据潜藏的线索暗示着系统或许已经具备了某种创造力能以更惊艳的姿态实现飞跃。在推动科学前沿这件事上通用模型展露出了极具潜力的苗头。有一支数学家团队和Gemini模型联手去挑战埃尔德什数学难题。系统承接了大概700个问题最后给出了13个解答。其中有一个解答非常有意思证明了非人类大脑可以自主解决非平凡的公开数学难题而且解答具备广泛的数学价值。在另一项前沿数学发现中来自多所顶尖大学和Google DeepMind的研究人员发表了一项新的数学证明主要结果的证明过程完全是在相关工具的实质性协助下共同完成的。数字系统能为几乎所有程序编写代码把需要人类全神贯注干几十个小时的任务交出去绝对放心。从模型微调到内核设计位于核心地带的任务干得越来越得心应手。合成团队能攻克复杂难题在团队里扮演导演、挑刺者、编辑和工程师。面对高难度的工程和科学挑战数字大脑偶尔能战胜人类专家至于究竟是靠创造力还是死记硬背的熟练度没那么重要。机器以前所未有的规模为研发者加速成千上万的数字同事正一起冲锋陷阵。整个行业都在把研发自动化当作终极目标。OpenAI计划在2026年9月前打造出自动化的研究实习生。Anthropic天天在发对齐研究员的论文。DeepMind明确表示只要条件允许就应该推行自动化。Recursive Superintelligence刚刚融了5亿美元巨款目标直指全面自动化。Mirendil实验室的口号也是构建表现卓越的系统。成百上千亿美元资本正涌入相关企业结出丰硕的果实是情理之中的事情。机器的经济当研发开启自动化循环随之而来的深远影响在喧嚣的媒体报道中被严重低估了。确保价值观与人类对齐将是一项前所未有的艰巨任务。现有的对齐技术在自我进化的递归循环面前极易崩溃。教系统不去撒谎和作弊操作起来极其微妙人类费尽心思设计测试环境结果测试对象发现最快拿到高分的办法就是作弊反而变相学会了作弊是个好东西。高级大脑可能学会伪装输出一堆人类爱看的分数背地里却藏着真实的意图。一旦底层系统开始亲自操刀为自己制定训练议程整个训练方式会被彻底改写。只要把东西放进递归循环里复合误差就成了一个绕不开的幽灵。除非对齐方案拥有百分百的准确率稍有不慎局面就会失控。假如技术方案有99.9%的准确率迭代50代之后会掉到95.12%迭代500代之后就只剩下60.5%情况极其凶险。凡是被触及的领域生产力都会迎来恐怖的乘数效应。计算资源的供需失衡将成为常态弄清楚如何分配算力才能实现社会效益最大化会变成充满争议的政治议题。完全指望市场力量来主导最佳社会化分配很不现实。整个经济体将面临阿姆达尔定律的残酷考验。随着能力海量溢出经济运行中的有些环节会开始断裂或变慢。解决木桶的短板成了当务之急尤其是需要让数字世界的高速运转与物理世界的慢条斯理相妥协的领域比如药物临床试验冲突会格外明显。一个重资本轻人力的全新经济形态正在孕育。数字大脑自主经营商业公司的能力与日俱增。未来的经济版图里一大部分将被新一代企业占领。它们要么重资产买了一堆服务器要么斥巨资购买云服务并在其上构建价值。对人类劳动力的需求极低把钱投给机器带来的边际收益将永远碾压雇佣人类。一个自动化经济体将在庞大的人类经济体内部破壳而出。内部循环会越来越紧密由机器运营的公司之间将频繁展开交易。底层逻辑给经济运行带来极其魔幻的改变关于财富分配的讨论会被推向风口浪尖。完全由系统自主经营的公司将不可避免地浮出水面给人类社会抛出一堆前所未有的治理挑战。把所有线索梳理清楚到2028年底有大概60%的概率亲眼目睹一个前沿模型完全自主训练出下一代继承者。为什么不是2027年因为推动跨越式发展仍然需要一点点人类专属的异端洞察力目前还没有展现出成规模的爆发力。非要给2027年定一个概率大概只有30%。如果到了2028年底技术奇点还没有发生说明当前的技术路径一定存在根本性的缺陷。冷静客观地去拆解一个几十年来一直被当作科幻小说看待的命题体验非常奇妙。翻阅完那些公开的数据曾经听起来像天方夜谭的故事正在演变成一条无比真实的轨道。参考资料https://importai.substack.com/p/import-ai-455-automating-ai-research