• 视频标题:CEO Of Microsoft AI: AI Is Becoming More Dangerous And Threatening! - Mustafa Suleyman
  • 嘉宾:Mustafa Suleyman(DeepMind 联合创始人、Inflection AI 联合创始人,《The Coming Wave》作者)
  • 平台:The Diary Of A CEO
  • 视频链接:https://www.youtube.com/watch?v=CTxnLsYHWuI
  • 语言:英文(自动字幕)
  • 摘要整理时间:2026-02-16

一句话结论

AI 将在未来几十年以“指数级”变强并无处不在,既能带来能源、医疗、科研与教育的“极大丰裕”,也可能因“开放式扩散(proliferation)+竞赛激励(race condition)+自主性增强”而迅速失控。穆斯塔法主张以“先做无害”的预防性原则推进“可控性(containment)”,通过国家与国际层面的管制与协调,限制危险能力的扩散与滥用,否则“不是我们约束技术,而是技术约束我们”。


背景与情绪

  • 早期情绪:他在 2013 年前后因深度学习在 Atari、图像生成等任务上的“意外涌现”而“害怕(petrified)”;随后在长期思考利弊与趋势后,转为“必须直面并引导”的务实态度。
  • 当下心境:兴奋与疲惫并存——短期成就令人鼓舞(数百万人获得“口袋里的聪明助手”);但长期风险(30 年尺度)的不确定与沉重,让他“每天都感到压力与责任”,甚至“悲伤与愤怒”于人类未能从疫情等事件汲取足够教训。
  • 价值立场:自认“人本主义者(humanist)”,强调“人类物种优先”,坚决反对让新物种/系统将人类从地球主导地位上“挤下去”。

技术进展与惊喜

  • 可预测的:图像/音频的生成式突破(从 300×300 黑白“手写 7”生成到照片级图像、再到视频);因为局部像素关联有直观“结构”。
  • 意外之处:自然语言的巨大进步(LLM)。语言空间抽象且分支巨大(如“the cat sat on the …”可接无数词),他当时难以直觉地相信纯规模化能达成今天的对话/推理能力。
  • 规模化数字:2013 年 Atari 系统约用 2 PetaFLOPs;此后每年 10 倍扩展,至今顶级模型训练已达“百亿级 PetaFLOPs”。“更大模型 + 更多数据 + 更强算力”带来“如同与知识渊博的人类对话”的体验。
  • 涌现策略:AlphaGo“第 37 手”是典型例子——AI 的新奇解法既是希望(新知识/新策略/新药物),也是恐惧来源(不可预期行为)。

概念与术语

  • AGI(通用人工智能):广泛、跨域的类人通才智能。
  • ACI(Artificial Capable Intelligence,人工能力智能):他在书中提出的更实用导向的阶段性概念——能在真实世界完成大量复杂任务、强于当下系统,但未必拥有完全通用的智能与“心智”。
  • “新物种”隐喻:到 2050 年,伴随机器人与合成生物学的跃迁,AI 的存在将更像“另一种物种”,这加深了对“可控性”的现实压力。

风险版图(技术与社会)

  1. 扩散/竞赛
    • “竞赛条件(race condition)”:若我不做,别人就会做,致自我实现的全面竞赛。
    • 开源与下放:几年前的 SOTA 如今可轻松复刻为小型开源模型;边际成本持续下降,门槛不断降低。
  2. 自主性与不可预期
    • 从“人类在环”的自动化,到能自我改进、目标保持、跨系统执行的自主体(尤其在未设边界的线上环境或战场),风险陡增。
  3. 交叉技术放大
    • 机器人:30 年内类人机器人在大量物理任务上“够用可依赖”。
    • 合成生物学:基因测序/合成成本百万倍下降,工程化生命体可能带来“意外或故意”的高传染/高致死病原体。
  4. 基础设施与社会层面
    • 深度伪造+拟人语音:诈骗、操纵与社会信任崩解。
    • 网络与金融安全:攻击自动化与规模化,关键系统被“AI 武器化”。
    • 就业与秩序:短中期职业替代与长期社会角色/意义的再造。

为什么“可控性(Containment)”依然必要

  • 人类历史上虽极少“彻底禁止”技术,但在存在“同等或更优替代”时,曾对 CFC、化学/生物武器、致盲激光等采取过有效限制。
  • AI 为“泛用途(omni-use)/混用”技术——同一底层能力既能救命(识别肿瘤),也能杀戮(战场打击标定)。越有用越会扩散,这正是难点。
  • 国家仍是核心治理单元:税收、执法、暴力垄断、出口管制、基础设施监管等,必须快速“版本升级”。
  • 国际协调是关键:参考核不扩散条约(虽与 AI 特性不同),通过“减少关键参与者数量+建立威慑/激励/奖惩”来抑制危险能力扩散。

主张的治理与防线(“预防性原则”下的方向)

注:访谈中多次提及“十个优先方向”,节目里重点展开了其中数项,以下汇总为“对话+其著作主张”的综合要点(非穷尽):

  1. 安全与红队
    • 构建“用于防御 AI 的 AI”,以自动化发现/拦截欺诈、入侵、异常行为(如今银行反欺诈、数据中心/摄像头算法已是雏形)。
  2. 独立审计与评估
    • 第三方对模型能力/越狱/滥用面进行系统化评测;建立事故报告与停机机制。
  3. 供应链“卡口(Chokepoints)”
    • 物理层:海底光缆端点、数据出入境;
    • 算力层:GPU/加速芯片供应与出口;
    • 云与 API:对高风险能力的访问施加门槛与可追溯。
  4. 访问与身份控制
    • 从 2FA 拓展到 3/4FA,多源验证;对高危工具与实验资源执行实名/KYC 与用途审查。
  5. 计算/软件/数据的分级与限流
    • 对能直接增强危险能力的模型/权重/代码/数据集,执行分级发布与限流。
  6. 税收与再分配
    • 对 AI 超额收益课以专项税,用于再培训、教育与社会适配成本;需配合国际协调以避免“税收套利”。
  7. 法规+文化双轮
    • 法规必要但不足;需要产业、学界、媒体、公众共同推进“安全默认”的文化与实践。
  8. 国际机制与新机构
    • 建立“全球技术稳定”职能(类似联合国安理会+WTO 的合体),以实施“预防性原则”与跨境协调。
  9. 禁限自主杀伤
    • 反对“可致命的自主武器系统”;对“无人值守自我改进”的线上自治体保持高度警惕。
  10. 风险沟通与公众素养
  • 普及“数字怀疑主义”;对深伪、语音诈骗建立社会免疫力与快速核验习惯。

未来情景:成功 vs 失败

  • 若“成功实现可控性”:
    • 30 年尺度内,能源生产/存储成本接近 0 的同时,海水淡化、作物改良、药物设计、教育个性化、交通与医疗等领域大幅降本增效;
    • “极大丰裕(radical abundance)”初现,人们不必为生计工作,可将精力投入创作、探索与志趣(“意义问题”将是更好的问题)。
  • 若“失败”:
    • 危险能力“长尾扩散”,少数恶意/极端分子即可“瞬时、跨域、大范围”制造破坏;
    • 自主系统越界与相互对抗,关键基础设施被劫持,社会信任体系解体;
    • 人类在关键能力与主导权上被“挤出”,最终进入“被技术约束”的被动局面。

现实困局:激励与短期主义

  • 巨额经济红利(“历史上最大的经济奖池”)+ 科研界的地位/成就渴望,推动“卷规模、卷速度”。
  • 民主政治四年选举周期带来“短期绩效冲动”,不利于 10–30 年的技术治理与公共投资。
  • 痛点:历史上“真正能催生跨国妥协”的时刻,往往出现在“大灾难之后”或“明确的相互确保毁灭”威胁之下。他强调:不要等到代价出现才醒悟。

给不同角色的建议

  • 公众/个体
    • 提升“数字怀疑”:对电话/短信/音视频“分层验证”,养成 2FA/3FA 习惯;
    • 亲自使用与测试 AI 工具,理解其边界与失败模式,别“鸵鸟”。
  • 开发者/企业
    • 安全默认(secure-by-default),建立红队与评测基线;
    • 避免无人值守的自我改进自治体;反对致命自主武器;
    • 采用 PBC(公益性公司)等治理创新,平衡利润与社会影响。
  • 政府/监管者
    • 强化算力/芯片/云 API 的外溢控制与审计;
    • 建立高风险事件的停机与复盘制度;
    • 推动国际协调、出口管制与事故通报;
    • 将 AI 超额税用于再培训/教育/社会缓冲。

个人片段

  • 他承认“每天都在被这些问题压着”,但视其为“特权与责任”:“历史在看着你”。
  • 面向孩子/下一代的忠告:“知识即力量。拥抱、理解、面对恐惧,不要回避;主动参与塑形。”

关键引述(意译)

  • “Containment must be possible(可控性必须可能)——否则就是它来约束我们。”
  • “每个组织都会争夺智能,这会极具破坏性。”
  • “我们需要在技术前沿说‘不’,这是人类很久未曾锻炼过的肌肉。”
  • “不要等灾难发生后,才用共识来弥补代价。”

参考与延伸

  • 书籍:《The Coming Wave》(即将到来的浪潮)
  • 主题:AGI/ACI、合成生物学、机器人、量子计算、能量与丰裕、治理与国际协调、竞赛条件、开源扩散、预防性原则