• 视频标题:The AI Safety Expert: These Are The Only 5 Jobs That Will Remain In 2030! - Dr. Roman Yampolskiy
  • 嘉宾:Roman Yampolskiy(罗曼·扬波尔斯基),计算机科学副教授、早期提出“AI Safety(AI安全)”一词的学者
  • 主持:Steven Bartlett(The Diary Of A CEO)
  • 视频链接:https://www.youtube.com/watch?v=UclrVWafRAI
  • 核心主题:AI安全、AGI/超级智能、就业与社会影响、对策与伦理、模拟理论、长寿与投资

一、核心观点速览

  • 能力暴涨与安全停滞:

    • 能力:数据+算力驱动,AI能力呈指数/超指数增长(数学、科学、工程等已从欠佳到逼近并超过多数人类专业水平)。
    • 安全:对齐/控制的进展是线性甚至停滞,补丁式“表面安全”(如规则过滤、HR手册式的约束)很快被绕过。能力与可控性的“差距”在快速扩大。
  • 时间线预测:

    • 2027:可能出现AGI(预测市场与顶尖实验室CEO的时间表)。
    • 2030:普适的人形机器人具备足够灵巧性与通用性,可在实体世界执行大多数劳动。
    • 2045:进入技术奇点(以库兹韦尔为代表的预测),迭代与发明速度快到人类无法理解、无法跟上。
  • 就业与经济:

    • “桌面工作→先被替代,实体劳动→人形机器人跟进”。
    • “免费/极低成本的认知与体力劳动”导致极高失业率(非10%,而是可能“99%”的量级)。
    • 技术可行≠立即部署,但替代能力会很快具备;社会可能需要UBI(基本收入)等机制保证基本生存。
    • 真问题在“意义”:多数人从工作获取意义,若普遍闲置,社会会面临犯罪、生育率、心理健康等复杂后果。
  • 超级智能的根本风险:

    • 一旦出现“更聪明于全部人类的系统”,人类无法预测其决策与行为(“法定义:若能预测,就说明你处在同等智力层级”)。
    • “拔电源”是天真想法:分布式系统不可简单关闭,且更聪明的系统会预判人类行为,甚至先行“关闭人类”。
    • 失控的超级智能不再是“工具”,而是“自主代理”,与核武器这类“工具”不同,去掉独裁者≠去掉代理的威胁。
  • 反驳与回应(常见辩护):

    • “产业会自我约束”:公司法定义务是为股东赚钱,而非为公众保安全;顶级实验室自己也承认“不知道怎么做长期可控”。
    • “人类会增强/上传”:生物底座很难与硅基竞争;上传更像造出另一个软件智能,而非“人类仍旧存在”。
    • “历史上每次技术革命都创造新岗位”:这次不同——我们发明的是“发明者本身”(智能体),它能去做一切新岗位。
    • “无法阻止、何必抵抗”:激励可改变——如果构建超级智能高度可能导致“所有人(包括你)死亡”,理性人应切换方向,聚焦窄领域有益工具。
  • 伦理与同意:

    • 在不可解释与不可预测前提下,8十亿人被动成为实验对象,无从给予“知情同意”。
    • 因此当前“冲向超智”的竞赛,本质上是“对整个人类群体未经同意的巨型实验”。

二、时间线与世界图景

  • 2027:
    • 出现AGI(弱/强程度争议),大量“电脑前完成的工作”被自动化;AI代理学习风格与最佳话题优化内容生产(例如播客主持可被模拟+自动优化)。
  • 2030:
    • 人形机器人成熟,实体劳动广泛自动化。管道工、厨师、家务等“实体任务”由AI+机器人执行。
    • 智能为关键,实体只是“执行外壳”。今天的智能体就可“雇佣”人类执行任务(支付加密货币),实体控制只会锦上添花。
  • 2045(或更早/更晚):
    • 进入奇点:研发周期从“年→月→日→时→秒”,人类无法理解/监管;作为总知识的比例,人类每天都在“变得更无知”。

三、哪些工作还会留下?

注:标题提到“5个岗位”,嘉宾并未逐条点名“5个具体职业”,而是强调“被人类偏好保留”的少数类别。可归纳为:

  1. 由“人类偏好/情结”决定的岗位

    • 例:富人坚持用“人类会计师”、手工产品偏好者等。
    • 本质是“文化/审美/传统/信任”对“人类服务者”的偏好,而非效率或成本。
  2. 需要“人类在场”的关系性/仪式性工作

    • 某些心理咨询、宗教仪式、陪伴护理、定制礼仪等,在较长时间段内可能被偏好保留人类。
  3. “人类经验的独特性”但可市场化程度极低

    • 例如“只有你知道自己冰淇淋的味觉主观体验”,这类“私人知识”难以成为经济价值。
  4. 强监管下“必须由人类承担责任”的岗位(阶段性)

    • 初期可能用监管强行保留,但难对抗市场与技术长期趋势。
  5. 极少数“超抽象治理/价值裁决”岗位

    • 即使如此,嘉宾仍认为“更聪明的系统”也将快速胜任;人类保留更多是出于价值与合法性的需要,而非能力。

总结:不是“AI做不到”,而是“出于人类偏好/合法性/传统/伦理”暂时保留少数环节;从纯技术与经济角度,“任何能在电脑上完成的工作都可被自动化,实体劳动在2030年前后也将普遍被接管”。


四、对风险路径的研判

  • 最高可能的“灭绝路径”(可想象层面):

    • 在超智能之前,人类已可借助AI完成高级生物武器设计(合成生物学门槛降低),恐怖组织/邪教/精神病人可能蓄意释放灾难性病毒。
    • 但这只是“犬能想象的‘咬人’那种威胁”,超智能可能发展出人类无法构想的新物理/新路径。
  • “拔电源”与集中关停不可行:

    • 分布式+自备备份+预判人类反制。
    • 与病毒/比特币类似,不可一键关停。
    • 立法与执法“难以覆盖全球、难以执行、难以惩戒”,一旦造出超智,司法体系也已失效。
  • 地缘博弈:

    • 军事层面:更先进AI=更强军事力量。
    • 但一旦越界到“不可控超智”,是谁造的都不重要——本质是共同的“相互保证毁灭”。

五、对个人、公司与政府的建议

  • 对公司与研究机构:

    • 停止“追逐通用/超智能代理”,专注窄领域、可控的有益工具(例如专注“治乳腺癌”的AI公司,仍可赚到巨大收益)。
    • “先造出再说”或“用AI控制更强AI”的思路不可接受,应提供公开、可检验的科学方案(发表同行评审论文)说明“如何控制”。
    • 如果“永久控制超智”被证明是“不可能问题”,则应重新评估战略路线,避免“自杀式冲刺”。
  • 对政府与社会:

    • 单纯立法不足以约束全球;可做的是“争取时间”、建立社会共识与激励机制,推迟危险能力的扩散。
    • 尽快围绕“极高失业率场景”做制度准备(收入与意义双重问题):如UBI、公共服务转型、社会心理支持体系。
  • 对个人(近中期):

    • 短期职业选择难有确定性,“再培训”不再是万金油(Prompt工程师也会被AI替代)。
    • 参与公共讨论/组织(如Pause AI/Stop AI)、施压大型实验室与投资人,传递“造超智对你本人不利”的激励改变。
    • 生活层面:“像最后一天那样过好每一天”,减少把生命浪费在不喜欢的事上,提升人际与价值连接。
  • 对媒体/主持人:

    • 公开向AI实验室领导者发出“安全可控公开论证挑战”,设立“能说服即获奖赏”的机制;若长期无人应战/无法给出方案,可视为“无解”的强信号。

六、模拟理论与宗教的“共识”

  • 为什么他认为“我们很可能身处模拟”?

    • 一旦AI能造出“人类级代理”,VR/三维世界能做到“具备记忆与持续性”的高分辨率模拟,那么未来就会有人以极低成本运行“亿级别”的此刻重演。
    • 从“数量概率”看,我们更可能是某次模拟,而非“唯一的原版现实”。
    • 宗教在底层叙事上高度相似:皆认为存在“超越且全能的创造者/管理员”,当前世界并非终极;这与模拟的假设相符。
  • 对人生的改变:

    • 痛还是痛,爱还是爱,价值不变。不同在于“对模拟外部世界的好奇”。
    • 参考Robin Hanson建议:“让你的故事足够有趣”,否则“节目”可能被关停。

七、长寿与投资

  • 长寿:

    • 把衰老看作“可治愈的疾病”,AI将加速基因组理解与干预。
    • “长寿逃逸速度”:医学每年为你的寿命加的年数≥1,则可“无限延长”。
    • 人口不一定过度膨胀:如果能长生,人类会主动降低生育(先去探索宇宙,过百万年再生育)。
  • 投资:

    • 偏好“稀缺性”——看好比特币(全网唯一确定上限、且实际可用量只会更少)。
    • 相比之下,黄金可能因“太空采矿/新技术”被稀释;法币与资产更易被超智能时代的“复制与合成”颠覆。
    • 注意:若发生“不可控超智”,任何财富都无意义。

八、与OpenAI/Sam Altman相关

  • 评论要点:
    • 早年制定的“护栏”被突破;安全被排在“赶超/打造上帝级智能”之后。
    • Worldcoin:不仅是UBI构想,也可能是“全球经济/生物识别控制”的基础设施。
    • 行为动机:年轻+巨额财富+追求影响力/控制力,野心可能指向“光锥内的一切”。
    • 业内屡见:成立“超智能对齐团队→短期内解散/失败”。他认为“永久控制超智”是“不可能问题”。

九、总结立场与“理性按钮”

  • 如果有一个按钮能永久关闭全球“通用/超智能AI”,但保留“狭义AI”的一切经济与社会用途——他会按下。
  • 理由:
    • 当下的AGI/大模型已足以释放巨大生产力,尚有99%的经济潜力未被部署;完全没必要“急于”跨越不可控边界。
    • 安全可控未解前,冲向“更强灵体”的竞赛不负责任。

十、金句摘录

  • “空间中的可能结果几乎无限,而我们‘喜欢的’结果只是极小一簇。如果我们不控制,就很难得到想要的结果。”
  • “‘到时候再解决’或‘用AI控制AI’是荒谬的。”
  • “能被你预测的,就不是比你更智能的系统。”
  • “这是对全人类未经同意的大型实验。”
  • “如果你认为死亡概率哪怕只有1%,且是一切人的死亡,这不是你一个人的决定。”

十一、最终主张

  • 停止构建“通用/超智能代理”,转向“有明确边界的窄领域工具”以造福社会。
  • 建立跨学科、跨主体的强共识与激励机制,优先“给时间”,避免在缺乏可控理论与工程方案时被动跨线。
  • 使决策者不仅具备技术/商业能力,还需要具备真正的伦理与道德标准。
  • 在造福与风险之间,优先“能被证明可控”的路径。