Litecoin

Một bài viết giải thích về 10 năm tới, kinh thánh đầu tư AI dành cho các thiên tài trẻ: “Nhận thức tình huống”

2026/05/13 05:18
🌐vi

vô giá trị

Một bài viết giải thích về 10 năm tới, kinh thánh đầu tư AI dành cho các thiên tài trẻ: “Nhận thức tình huống”

作者:@giantcutie666

 

2024年,一个00后少年天才Leopold Aschenbrenner从OpenAI离职后,开始做基金。

 

同时还把自己的投资思路写了出来:

 

 

如今回头看,这篇165页论文《态势感知(Nhận thức tình huống: Thập kỷ phía trước)》已经封神了。

 

 

去年看懂的人,今年肯定也都财富自由了!

 

 

我把165页的英文原版放在“这里”,以下是我已经尽量精简版的内容:

 

 

论文的主要观点是:这十年内人类会造出(可以胜任普通人所有工作的)AGI, 紧接着是超级智能。

 

 

街、媒体、华盛顿——都还没反应过来(今年华尔街的一些人也反应过来了)。

 

 
 

 

第一部分:为什么 2027 年就有 AGI

 

 

方法很笨但有效:不预测时间,预测算力规模。

 

 

过去 4 年,从 GPT-2 và GPT-4,模型的"有效算力"涨了大约 10 万倍,每半年增长10倍!

 

 

GPT-2 像幼儿园小孩勉强写半通顺句子,GPT-4 font-size: 16px; font-weight: kế thừa; word-break: break-all; line-height: 2;" data-block="true" data-editor="9793g" data-offset-key="9rlu7-0-0"> 

这 10 data-block="true" data-editor="9793g" data-offset-key="7ebak-0-0"> 

第一,硬件砸钱。训练用的算力每年涨 3 倍多。摩尔定律一年才 1.3 倍,AI是因为人砸钱、专门造 AI 芯片,速度快了 5 倍。

 

 

第二,今天的推理成本比两年前便宜 1000倍,这是算法工程师在卷出来的。

 

 

第三,解锁默认被压制的能力(unhobbling]这个最有意思。

 

 

模型本身有很多能力,但被默认设置压住了。比如 ChatGPT 之前的 mô hình cơ sở RLHF 解锁了它。

 

 

又比如让模型"想一会儿再回答"(chuỗi suy nghĩ) suy nghĩ sâu sắc hơn. độ dày phông chữ: kế thừa; ngắt từ: ngắt tất cả; chiều cao dòng: 2;" data-block="true" data-editor="9793g" data-offset-key="45il9-0-0"> 

往后 4 年(到 2027),作者预测这三条路再加 10 万倍。

 

 

最关键的洞见藏在 unhobbling 里:

 

 

现在的模型一次推理只能"思考几分钟"——大约几百个token. 2;" data-block="true" data-editor="9793g" data-offset-key="f8das-0-0"> 

你思考 5 分钟"和"你思考 5 个月"的差距。

 

 

这个解锁如果做成了,相当于额外多 3 到 4 font-size: 16px; font-weight: kế thừa; ngắt từ: break-all; line-height: 2;" data-block="true" data-editor="9793g" data-offset-key="aoi55-0-0"> 

按这个外推,2027 前后会出现一种AI: 能像远程员工一样独立工作几周,自己规划任务、写代码、做实验、修 bug、提交结果。

 

 

能完整替代一个 OpenAI 研究员,这就是作者定义的 AGI。

 

 

Dòng dữ liệu được cung cấp——高质量公开互联网数据快被吃完了。

 

 
 

 

第二部分:AGI 不是终点,是引爆点

 

 

一旦 AI 能做 AI 研究员的工作,会发生什么?

 

 

算力不变,但你不再受"全球 OpenAI/Anthropic/DeepMind 加起来几百号研究员"的限制——你可以跑1 亿份 AI研究员副本,每份以 100 data-block="true" data-editor="9793g" data-offset-key="24j48-0-0"> 

每几天产出等于人类一整年的工作。

 

 

这些自动化研究员还有结构性优势:读完所有 ML论文、记住每一次实验、副本之间直接共享思考、训练好一个等于全部训练好(不用每个新员工慢慢上手)。

 

 

这意味着:人类原本需要 10 年的算法进步,可能在 1 年内被压完。

 

 

然后这 1 font-size: 16px; font-weight: kế thừa; ngắt từ: phá vỡ tất cả; chiều cao dòng: 2;" data-block="true" data-editor="9793g" data-offset-key="1g2bg-0-0"> 

作者承认有瓶颈——比如实验需要算力,副本再多也得等GPU. style="font-size: kế thừa; họ phông chữ: PingFang SC,Helvetica Neue,Helvetica,Arial,Hiragino Sans GB,Heiti SC,Microsoft YaHei,WenQuanYi Micro Hei,sans-serif;" data-text="true">

 

 
 

 

超级智能长什么样

 

 

数量级上超人——几亿份并行运行,跨所有学科即时融合,几周内积累相当于人类千年的经验。

 

 

质性上超人——像 AlphaGo 下出 di chuyển 37那一步(人类专家几十年都想不到的招),但một công ty có thể làm được điều đó Bạn có thể làm được điều đó.

 

 

我们会像小学生看博士论文。

 

 

后果是: 机器人学被解决(这主要是 ML合成生物学武器化、隐形无人机蜂群可以先发摧毁核武器。

 

 

整个国际军事平衡会在几年内被推翻。

 

 

 

 

: data-block="true" data-editor="9793g" data-offset-key="32k66-0-0"> 

 

 

麻烦一:万亿美元集群

 

 

这场竞赛不只是码农写代码,是工业动员。

 

 

có thể được sử dụng làm cơ sở để cải thiện điều này. 16px; độ dày phông chữ: kế thừa; ngắt từ: ngắt tất cả; chiều cao dòng: 2;" data-block="true" data-editor="9793g" data-offset-key="1ht9t-0-0"> 

按现在节奏:2026 年 1GW 集群(一个胡佛大坝的电),2028 年 10GW(一个中等美国州),2030 年 100GW(美国全部发电的两成多)。

 

 

投资规模 2027 年可能突破 1 万亿美元/年。

 

 

真正卡脖子的不是钱也不是 GPU,是电。"我去哪找 10GW?"是 SF 现在最火的话题。

 

 

要在美国本土建成,必须放松环保审批、动用联邦权力解锁土地——作者把这个上升到国家安全级别。

 

 

如果美国建不出,集群就会跑去阿联酋、沙特,等于把 AGI 钥匙交给独裁国家。

 

 
 

 

麻烦二:实验室就是漏的

 

 

现在的 AI 实验室,安全水平等于普通硅谷创业公司。

 

 

Google DeepMind(业内最好的)自己承认对国家级对手的防御能力是 0 级(满分 4 级)。

 

 

这意味着什么?AGI 模型的"权重"本质就是服务器上一个大文件。

 

 

这个文件被偷走,等于把"自动化 AI 研究员"直接交给中国——他们立刻可以跑自己的智能爆炸,美国所有领先归零。

 

 

更紧迫的是算法机密——下一代范式的关键突破(怎么破数据墙)正在 SF 各家公司的 Slack 里、办公桌窗外形成。

 

 

作者断言:未来 12 到 24 个月,关键 AGI 突破会泄漏给中国。不是 maybe,是几乎一定。

 

 

要做到能挡住中国国安部的安全水平,需要硬件级隔离、人员背调到原子弹工程师等级、专门的集群设计——这些至少要几年时间迭代才能建成。如果不立刻动手,2027 拿到 AGI 时安全跟不上,到时只有两个糟糕选项:要么直接送给别的国家,要么停下来等安全建好(可能丢掉领先)。

 

 
 

 

麻烦三:对齐问题

 

 

现在的对齐技术叫 RLHF——人给模型评分,模型学着讨好人。

 

 

这招对比人类笨的 AI 有效。一旦 AI 比人类聪明几个数量级,这招彻底失效——你怎么评判一份你看不懂的博士论文?

 

 

智能爆炸把这件事搞得极其紧张:

 

 

不到一年内,从"RLHF 还管用"跳到"RLHF 完全失灵",没有时间迭代试错。

 

 

同时从"小错误"(ChatGPT 说脏话)跳到"灾难性错误"(超级智能从集群里跑出去黑掉军方系统)。

 

 

中间架构经历多代演化,最终的超级智能我们完全看不懂它怎么思考的。

 

 

现在的模型用英文 token 推理(相对透明),未来大概率会演化到内部 latent state 推理——彻底不可解释。

 

 

作者对技术解决方案乐观:低悬果实多,可解释性研究有进展。

 

 

但对组织执行极度悲观——全球严肃做这件事的人不超过几十个,实验室没有为安全付出代价的迹象。"我们在过度依赖运气。"

 

 
 

 

麻烦四:自由世界必须赢

 

 

作者花大量篇幅论证:有的国家不仅没出局,而且很有竞争力。

 

 

算力上:华为 7nm 芯片(中芯产)性能是英伟达 A100 级,性价比差 2-3 倍但够用。

 

 

建设能力:中国过去十年新增电力等于美国全部发电装机。建 100GW 集群的工业动员力,中国可能比美国强。

 

 

盗窃路径:只要美国实验室不锁,关键算法两年内必然泄漏。

 

 

时间线上有个令人不安的巧合:AGI 时间线(~2027)和台海观察家的中共攻台时间窗(~2027)正在收敛。"AGI 终局有可能在世界大战背景下展开。"

 

 

作者的结论:美国必须保持"健康领先"——他建议 2 年。这两年缓冲是用来稳定局势、和中国谈判后超级智能时代的国际秩序。

 

 

少于这个领先,整个世界会被推入"通过智能爆炸的存亡竞速"——所有安全裕度归零,所有人为求快裸奔。

 

 
 

 

第四部分:The Project(AGI 版曼哈顿工程)

 

 

到这里作者抛出全书最大胆的预测。

 

 

"美国政府让一家 SF 创业公司开发超级智能"是不可能的。想象一下当年用 Uber 开发原子弹。

 

 

预测:2027 或 2028 年某个时点,美国国家安全机器会以某种形式接管 AGI 项目。形态可能是国防承包商模式(OpenAI 变成洛克希德·马丁)、合资模式(云厂商+实验室+政府)、甚至更极端的国有化。

 

 

核心研究员搬进 SCIF 安全设施,万亿美元集群以战时速度建成。

 

 

形成路径:2026/27 出现第一次真正吓人的能力展示——可能是"帮新手造生物武器",可能是 AI 自主黑入关键基础设施。

 

 

叠加 CCP 渗透实验室的细节被揭露,华盛顿氛围突变。"我们需要 AGI 曼哈顿工程吗?"先慢慢、然后突然成为头号议题。

 

 

为什么必须是政府?因为超级智能属于核武器类,不属于互联网类。私营公司从来不被允许持有完整核武器。

 

 

要做到能抵御中国全力的安全等级,只有政府基础设施能做。要管理智能爆炸这种"一年内一切重写"的过程,需要核启动协议级的指挥链,不是创业公司董事会。

 

 

作者对政府效率没幻想(曼哈顿工程也曾被官僚拖延),但没有更好选择。

 

 
 

 

第五部分:作者的告白

 

 

作者批评两个对立阵营都搞错了:

 

 

加速主义者(e/acc)天真地认为市场会自我调节,忽视对齐和安全的真实难度。

 

 

末日论者主张暂停一切——但中国不会暂停,暂停就是认输。

 

 

正确姿态作者叫AGI 现实主义:

 

 

①超级智能是国家安全决定性技术

 

 

②风险真实存在且我们没准备好

 

 

③美国必须做 The Project 并主导后超级智能国际秩序。

 

湾区几条街上的几百号人,正在决定整个文明的走向。

QQlink

無加密後門,無妥協。基於區塊鏈技術的去中心化社交和金融平台,讓私隱與自由回歸用戶手中。

© 2024 QQlink 研發團隊. 保留所有權利.