《Situational Awareness》精华提取:一个前OpenAI研究员眼中的未来十年
素材整理 | 研路炼钢
原文:Leopold Aschenbrenner,《Situational Awareness: The Decade Ahead》,2024年6月,165页,5万字

一、作者是谁?为什么值得认真读?

Leopold Aschenbrenner(利奥波德·阿申布伦纳),德裔美国人,19岁以最优毕业生身份从哥伦比亚大学毕业,主修经济学和数学统计。2023年加入OpenAI的”超级对齐”(Superalignment)团队,师从Ilya Sutskever。2024年4月因涉嫌泄露内部安全备忘录被解雇(他本人否认泄密,称只是与外部研究者分享了一份关于安全措施的头脑风暴文件)。
离开两个月后,他发布了这篇165页的研究报告,在硅谷迅速传播。特朗普女儿伊万卡都在社交媒体上推荐过。随后他创办了以此文命名的对冲基金”Situational Awareness LP”,获得Stripe创始人Patrick和John Collison等人投资,截至2025年管理规模超过15亿美元。
他不是旁观者,他是参与构建这项技术的人。 这篇文章也因此被一些人比作冷战初期外交官乔治·凯南的那封”长电报”——试图唤醒精英阶层对即将到来的变局的认知。
二、核心论点:未来十年的五大判断

判断一:2027年前后,AGI将成为现实
这是全文最核心也最大胆的判断。他的推导逻辑非常清晰:
“数OOM”方法论(OOM = Order of Magnitude,数量级,10倍 = 1个OOM):
- GPT-2(2019)→ GPT-4(2023),仅用4年时间,AI从”勉强能拼凑几句话”进化到”能通过大多数高中和大学考试”
- 这背后是三个维度的持续增长:
- 算力(Compute):每年增长约0.5个OOM(约3倍)
- 算法效率(Algorithmic Efficiency):每年也增长约0.5个OOM
- “去束缚”增益(Unhobbling):RLHF、思维链、工具调用、Agent化等,释放模型已有但被压制的潜力
关键推算:从GPT-4到2027年底,我们还将获得约10万倍(~5个OOM)的有效算力提升。这意味着又一次GPT-2到GPT-4量级的质变飞跃。
他的原话(大意):到2027年,模型很可能有能力完成一个AI研究员/工程师的工作。这不需要相信科幻——只需要相信图表上的直线。
过去十年的教训:一次又一次,怀疑者声称”深度学习做不到X”,然后被迅速打脸。MATH基准测试2021年发布时最好的模型只答对5%,作者还说需要”根本性的新突破”才能解决。结果一年后就到了50%,现在已经超过90%。
判断二:AGI之后,超级智能将在一年内到来(智能爆炸)
这是全文第二个震撼性判断:AI进步不会停在人类水平。
他用原子弹和氢弹做类比:原子弹是更高效的轰炸,氢弹则是能毁灭一个国家的武器——两者之间只隔了7年。AGI和超级智能的关系类似。
核心逻辑:
- 一旦实现AGI,我们不会只有一个AGI,而是可以同时运行数百万甚至上亿个AGI副本
- 这些AI不需要会走路或倒咖啡,只需要能在电脑上做ML研究
- 原来一个顶级AI实验室只有几百个人类研究员,现在变成了上亿个自动化研究员,日夜不停地工作
- 而且很快它们可以以10倍甚至100倍于人类的速度思考
- 结果:人类研究员十年的算法进步,可能在不到一年内被压缩完成
他特别强调了一个反直觉的观点:很多重大的ML突破其实非常简单和”hacky”——“加个归一化层”(LayerNorm)、”做f(x)+x而不是f(x)”(残差连接)、”修个实现bug”(Kaplan到Chinchilla缩放律)。AI研究是可以被自动化的。
判断三:万亿美元级基础设施竞赛已经开始
这是对投资者最重要的一章。 他用详细的数据表格展示了一个惊人的基建扩张时间线:
| 年份 | 最大训练集群规模 | 成本 | 电力需求 | 参照物 |
|---|---|---|---|---|
| 2022(GPT-4) | ~1万块H100等效 | ~5亿美元 | ~10MW | 约1万户家庭 |
| ~2024 | ~10万块 | 数十亿美元 | ~100MW | 约10万户家庭 |
| ~2026 | ~100万块 | 数百亿美元 | ~1GW | 胡佛大坝或一座大型核反应堆 |
| ~2028 | ~1000万块 | 数千亿美元 | ~10GW | 一个中等美国州的用电量 |
| ~2030 | ~1亿块 | 1万亿美元+ | ~100GW | 美国总发电量的20%以上 |
全球AI总投资规模:
- 2024年已经达到1500亿~2000亿美元
- 到2027年,总AI投资可能超过1万亿美元/年
- 到2030年,可能达到8万亿美元/年
他指出,当时硅谷最热门的话题不是”下一个模型能做什么”,而是**”我到哪里去找10GW的电力?”** 算力不是瓶颈,能找到的基础设施才是。
历史参照:曼哈顿计划和阿波罗计划在高峰年份各自达到GDP的0.4%(约1000亿美元),而AI投资到2027年可能达到GDP的3%。1996-2001年电信行业投入了约1万亿美元(今日价值)。AI投资将超越这些历史先例。
收入支撑逻辑:微软Office有3.5亿付费用户,如果其中三分之一愿意为AI插件支付100美元/月,就已经是超过1000亿美元的年收入。对普通白领来说,这只相当于每月省下几个小时的生产力。
判断四:实验室安全形同虚设,国家安全危机迫在眉睫
这是他在OpenAI时就向董事会提交过备忘录的核心关切:
- 顶级AI实验室对安全的态度就像”把国防机密放在银盘上端给对手”
- AGI的模型权重和关键算法秘密一旦被窃取,等于把数万亿美元的研发投入拱手让人
- 他认为当时OpenAI的安全措施远远不足以抵御国家级别的网络攻击
他预测,到2027-2028年,美国政府将不得不介入,形成某种形式的”政府AGI项目”。没有任何初创公司能独自处理超级智能带来的挑战。
判断五:自由世界的存亡之战
他将AGI竞赛提升到地缘政治的高度:
- 超级智能将提供决定性的经济和军事优势
- 中国并没有出局(后来DeepSeek R1的发布在某种程度上验证了这一点)
- 这不仅是一个商业和技术故事,更是一个国家安全故事——类似核武器诞生时的局面,但影响更加深远
- 在通往AGI的竞赛中,自由世界的存续本身将面临考验
三、对我们的启示

1. 关于技术趋势的判断力
Aschenbrenner最打动人的不是他的预测多么大胆,而是他预测的方法论多么朴素——就是相信趋势线。过去十年,每一个声称”深度学习做不到X”的人都被打脸了。他只是把这条趋势线往前画了几年。
2. 关于投资方向
全文最核心的投资洞察:真正的超额回报可能不在做AI模型或应用的公司,而在AI背后的基础设施——电力、芯片制造、数据中心、冷却系统、电力传输设备。
他提到一个细节:当时硅谷最抢手的不是AI工程师,而是能拿到电力合同和电压变压器的人。美国需要在十年内将发电量提升数十个百分点。
Nvidia的数据中心收入从140亿美元暴涨到900亿美元年化只是”刚刚开始”。
3. 关于个人准备
他在文末说了一句发人深省的话(大意):目前全世界可能只有几百人真正理解即将发生什么。这些人大多在旧金山的AI实验室里。也许他们会成为历史的脚注,也许他们会像西拉德、奥本海默和泰勒一样载入史册。
对于普通人来说,核心启示是:不要用线性思维去预判AI的发展速度。 我们正处在一个指数级变化的起点。
四、需要注意的反面观点

公平地说,Aschenbrenner的观点并非共识:
- 他是AI投资者,不是完全中立的观察者。他创办的对冲基金直接押注AGI的到来。
- AGI的定义本身就很模糊。关于当前大语言模型能否真正通向AGI,业界专家意见分歧很大。
- 技术进步从来不是一条光滑曲线。历史上有很多看似不可阻挡的趋势最终撞上了瓶颈期(plateau),有些瓶颈期相当漫长。
- 更广泛的专家共识认为,AI在到达AGI之前就已经有巨大的价值和应用空间,AGI本身可能并不是重点。
但无论你是否同意他的时间表,这篇文章提供的思考框架——用”数OOM”的方法来量化AI进步的速度——对任何关注AI发展的人来说都是极有价值的。
五、全文结构速览

| 章节 | 主题 | 一句话概括 |
|---|---|---|
| 导言 | 态势感知 | 全世界可能只有几百人真正理解即将发生什么 |
| 第一章 | 从GPT-4到AGI | 数OOM:2027年AGI完全合理 |
| 第二章 | 从AGI到超级智能 | 智能爆炸:AI自动化AI研究,十年进步压缩到一年 |
| 第三章a | 万亿美元集群竞赛 | 史无前例的基建扩张,电力成为核心瓶颈 |
| 第三章b | 实验室安全 | 当前安全措施远远不够,形同裸奔 |
| 第三章c | 超级对齐 | 控制比我们聪明得多的AI是未解的技术难题 |
| 第三章d | 自由世界必须胜出 | 地缘政治维度:这是关乎国家存亡的竞赛 |
| 第四章 | 政府项目 | 2027-2028年政府将不得不介入 |
| 第五章 | 结语 | 如果我们是对的呢? |
原文链接:https://situational-awareness.ai/
PDF全文:https://situational-awareness.ai/wp-content/uploads/2024/06/situationalawareness.pdf
以上为原文精华提取与分析,供公众号文章写作参考。具体行文风格、标题、排版可根据”研路炼钢”的调性进一步调整。










