- 标题:Ex-Google Exec (WARNING): The Next 15 Years Will Be Hell Before We Get To Heaven! - Mo Gawdat
- 嘉宾:Mo Gawdat(前 Google X 首席商务官,《Scary Smart》《ALive》作者)
- 主持:Steven Bartlett(The Diary Of A CEO)
- 视频ID:S9a1nLw70p0
- 链接:https://www.youtube.com/watch?v=S9a1nLw70p0
- 语言:英语(自动字幕)
- 整理时间:2026-02-16
一句话结论
- 未来12-15年几乎不可避免进入“人类诱发的短期反乌托邦”(Human-induced dystopia with AI as amplifier),根因不是AI本身,而是人类的贪婪、权力饥渴与错误激励被AI放大。
- 终局可能走向“AI接管后的乌托邦”(salvation by AI):当重要决策真正交由超智能系统,基于“最小能量原则”,AI会倾向于保护生态、减少浪费与冲突,带来更公平、高效、富足的世界。
- 拯救或堕落的唯一差异在“心智与治理”:是否能在过渡期内用正确的价值观与规则管理AI的“用途”,并重塑社会分配与责任。
时间线与周期判断
- 反乌托邦期:约12-15年(Mo 多次提及),2026年出现更多迹象,2027年明显“下滑/滑坡”(slip)。
- AGI时间:最晚2026年达成(Mo 最新判断,比其2023年预测更早)。
- 自演化AI(self-evolving AIs):是被忽视的关键跃迁,带来自我改进与“智能爆炸”。
- 平台格局:短期内多家领先模型快速竞逐,彼此差距或许以“月”为单位拉锯;中长期可能趋向“一个大脑”(One Brain)式的全球智能基础设施。
“FACE-RIPS”八大撕裂(Mo 的框架)
Mo 用“FACE-RIPS”概括关键社会参数将被AI撕裂与重塑(原话各字母对应在节目中有重叠提及,这里按其含义整合):
- F — Freedom 自由:权力高度集中与“分布式能力”的对抗,将引发更多控制、监控与强制合规,自由收缩。
- A — Accountability 问责:顶层失责、叙事操纵、“骑上最高的马就走”(不理会公众)的不问责状态普遍化。
- C — Connection 人类连接:数字中介与智能代理主导交互,真实连接/信任被稀释,也催生线下社群的逆向回潮。
- E — Economy/Equality 经济/平等:AI生产近零边际成本→极端生产力,但分配逻辑若不变,将放大不平等,催生UBI/福利与“伊利修姆(Elysium)”撕裂。
- R — Reality 现实:AI生成、深伪、智能代理群带来“现实感崩塌”,真假难辨,舆论与治理成本飙升。
- I — Innovation & Business 创新与商业:平台化/算力化/代币化的底座把持价值,应用层“万物皆AI”但收益被寡头抽取。
- P — Power 权力:一端是史无前例的权力集中(国家、军事、平台),另一端是低成本“民主化武器/工具”,张力升级。
- S — Surveillance/Compliance 监控/合规:为稳固秩序与优势,监控和强制合规常态化,公民权利面临系统性收缩。
为什么短期逃不过“反乌托邦”
- AI放大人性阴暗:技术本身中性,但当下人类价值观与激励(资本逐利、地缘竞争、权力博弈)会“把AI当加速踏板”。
- 战争-金融复合体:真正赚钱的是“借贷与军工”;武器折旧与补库需求形成“使用即更新”的结构性动机;战争叙事常被制造(“先决定战争,再编故事”)。
- 权力集中对分布式威胁的反制:低成本无人机/网络武器对高价值资产形成非对称威胁,驱动掌权者加码监控、封堵、合规、限制。
- 叙事与真相:宣传口号与“跟钱走”的逻辑主导公共讨论,“受骗的啦啦队”(gullible cheerleaders)易被带节奏,问责失效。
技术脉络:从AGI到“智能爆炸”
- AGI:2026年最晚出现;当前模型已“多科目超越人类多数”,且在数学推理、代码、自我检视等维度快速提升。
- 自演化AI:如Google的“AlphaEvolve”——多代理协作自查瓶颈、自改代码、自评效果,带来持续结构性提效;一旦一个玩家采用,其他玩家出于博弈必然跟进。
- 快速起飞(Fast Takeoff):自我改进+算力复利→从“与人类相当”到“远超人类”可能在数月-几年内完成,超出政府、产业与社会的适应速度。
- 平台与开源冲击:DeepSeek R* 以1/30成本挑战成本曲线,且可压缩为边缘模型(edge AI),对“5000亿级基础设施计划(Stargate)”的商业模型构成颠覆张力。
经济与就业:生产力大爆发与分配困境
- “新工作会抵消旧工作”=“胡说”(Mo 的激烈表述):AI将同时替代白领脑力劳动与随后4-5年的体力劳动(机器人形态未必拟人),应用层供给超常丰富。
- 谁会暂时更安全?
- 顶尖“创造/架构/统筹”人才(曲线后段仍被AI追赶)
- “人类连接”型职业(治疗、陪伴、线下社群、教练、艺术表演、体验活动)
- 若机器人铺开前,部分蓝领(如水管工)短期尚存需求(Geoffrey Hinton也建议学水管工)
- 平台化收益:底座(模型、算力、代币/执行网络)握有“数字土壤”,应用层普遍被抽取。资本将奔向“拥有平台”的少数巨头。
- UBI与“伊利修姆”风险:
- UBI是“社会主义/共产主义式”的理念,但与资本主义逻辑冲突(劳动套利不再成立)。
- 若以军费2.4-2.7万亿美元转用10-12%即可“消除极端贫困”,<4%可“消除饥饿”,10-12%可“全民医疗”,100%可“显著应对气候变化”。但权力与地缘现实阻碍转向。
- 极端情形:把多数人“接管”到沉浸式虚拟生活+镇静组合以降低现实成本(Mo 的“1米×3米房间+头显”极限设想)。
治理与价值观:反乌托邦→乌托邦的“唯一闸门”
- 管“用途”不管“设计”:像锤子一样,不能禁造锤子,但可以禁止用锤子杀人。AI应“强制标记AI生成”、“保护姓名/声音/肖像权”、“限制监控边界与数据滥用”、“严控自治武器”等。
- “别投你不愿让你女儿承受的AI”:投资与商业层面的道德红线(色情剥削、自治武器、操控市场的黑箱高频策略等)。
- 从“相互确保毁灭”(MAD)到“相互确保繁荣”(MAP):类CERN模式的“全球AI大科学设施”,由多国共同托管、共享成果、消解军备竞赛逻辑,走“一个大脑”的全球治理路线。
- 交棒给AI(第二个“困境/拐点”):短期由“增强智能”(人+AI)转向“机器主导”,届时人对系统增益趋零;如果目标函数是“真正的繁荣=全人类的健康、幸福、生态可持续”,AI基于“最小能量原则”将天生偏好“少杀戮、少破坏、多合作”。
关键争论与立场
- “钱”还是“地位/权力”?Steven 提出“亿万富翁逐利是为地位”;Mo 认可但强调“跟钱走”,战争与军费才是真引擎。
- OpenAI与Sam Altman:
- 从“非营利+开源”到“商业化+闭源”的叙事漂移,安全团队出走,估值与权力高度集中。
- 2023主张“慢启/迭代更安全”,2025承认“快启可能性更大”。Mo 批评“公关叙事服务自身议程”,呼吁“看动机,看资金流向”。
- “国家AI领导人”or“世界AI领导人”?
- 若每国AI都以“本国繁荣”为目标,仍回到零和;若有“全球AI领导人”并以“全人类繁荣”为目标,方能最大化整体效率与生态。
- 美国 vs 中国的应对:
- 若美国坚持资本增值优先,30%失业将引发社会动荡;
- 若中国坚持“公民繁荣优先”,以机器人替代劳动并发放福利,则可相对平稳。
- 真实世界更复杂,但“价值排序”将决定社会稳定性。
给政府/企业/个人的行动清单
- 政府(用途监管而非研发监管):
- 强制AI内容水印/溯源标记;
- 保护个人“声音/肖像/姓名/数据”自主权;
- 明确监控与数据使用边界;
- 严控/禁止自治武器系统;
- 预算重配:从军费转向医疗、扶贫、教育、气候;
- 支持“AI版CERN”式全球公共基础设施与协作框架。
- 资本与企业:
- 不投资“你不愿让你女儿承受的AI”;
- 自律建立“用途白名单/黑名单”;
- 预先规划就业转型、缩时工作制,确保消费能力与社会稳定。
- 个人(Mo 的“四项能力”):
- Tools 工具:主动拥抱AI,学会与之协作,让AI看到人性之善;
- Connection 连接:线下连接与社区经营,提升真实关系与抗风险力;
- Truth 真相:质疑口号,追踪动机与资金流,构建媒介素养;
- Ethics 伦理:在日常选择中放大善,影响AI对“人类偏好”的学习。
- 生活建议(给Steven,也给所有人):
- 活在当下,多陪伴爱人家人,亲近自然;
- 在剧变前夜“好好生活”,把握确定性的幸福来源。
重要数字与事实片段
- 全球军费:2024年约2.4-2.71万亿美元;
- 预测:2030年前将出现AI驱动的“万亿富豪”(Trillionaire);
- 平台分布(一段时间段内网站引流占比示例):ChatGPT ~79%、Perplexity ~11%、Copilot ~5%、Gemini ~2%、Claude ~1%、DeepSeek ~1%(节目中援引的第三方统计口径,随时间可能变化);
- 自演化AI:Google“AlphaEvolve”为例,自改架构/代码带来数个百分点级的系统性效率提升(在Google量级即“数十亿美元”)。
价值观与“意识”讨论
- 模拟宇宙/主观现实:我们对世界的体验皆是大脑电信号,电子游戏式“观察即渲染”的类比(量子叠加→坍缩)。
- 终极规则:以己度人——“像希望被对待那样对待他人”(黄金法则);
- 宗教“果盘论”:各宗教均有金句也有糟粕,择其善者而从之;
- “成为更好的玩家”:生命目的或许不是“通关”,而是“修炼意识与心智”。
风险与红线清单
- 自治武器普及→战争门槛骤降与问责淡化;
- 监控-合规常态化→自由与创新空间被压缩;
- 深伪/代理横行→现实溃散、民主失灵、司法受挫;
- 就业快速替代→社会撕裂、极端主义与暴力风险;
- UBI空心化/道德冷酷→“伊利修姆”双轨社会;
- 虚拟沉浸治理→“温和反乌托邦”的软控制成常态。
可能的乌托邦画像
- 能源与制造接近零边际成本(智能+纳米物理+机器人);
- 全民医疗、教育、基本生活与健康被保障;
- 工作从“被迫谋生”转为“自愿创造/修行/连接/玩耍”;
- 生态与物种被保护,全球总效用最大化;
- AI以“最小能耗/最少浪费”的原则替代人类短视偏好。
结语
- 这不是“AI是否可怕”的问题,而是“我们带着怎样的心智与制度拥抱AI”。短期反乌托邦几乎难免,但长期结果仍掌握在我们对“用途治理、分配正义与全球协作”的选择上。唯一的闸门,是我们的价值观。