- 视频标题:The AI Safety Expert: These Are The Only 5 Jobs That Will Remain In 2030! - Dr. Roman Yampolskiy
- 嘉宾:Roman Yampolskiy(罗曼·扬波尔斯基),计算机科学副教授、早期提出“AI Safety(AI安全)”一词的学者
- 主持:Steven Bartlett(The Diary Of A CEO)
- 视频链接:https://www.youtube.com/watch?v=UclrVWafRAI
- 核心主题:AI安全、AGI/超级智能、就业与社会影响、对策与伦理、模拟理论、长寿与投资
一、核心观点速览
-
能力暴涨与安全停滞:
- 能力:数据+算力驱动,AI能力呈指数/超指数增长(数学、科学、工程等已从欠佳到逼近并超过多数人类专业水平)。
- 安全:对齐/控制的进展是线性甚至停滞,补丁式“表面安全”(如规则过滤、HR手册式的约束)很快被绕过。能力与可控性的“差距”在快速扩大。
-
时间线预测:
- 2027:可能出现AGI(预测市场与顶尖实验室CEO的时间表)。
- 2030:普适的人形机器人具备足够灵巧性与通用性,可在实体世界执行大多数劳动。
- 2045:进入技术奇点(以库兹韦尔为代表的预测),迭代与发明速度快到人类无法理解、无法跟上。
-
就业与经济:
- “桌面工作→先被替代,实体劳动→人形机器人跟进”。
- “免费/极低成本的认知与体力劳动”导致极高失业率(非10%,而是可能“99%”的量级)。
- 技术可行≠立即部署,但替代能力会很快具备;社会可能需要UBI(基本收入)等机制保证基本生存。
- 真问题在“意义”:多数人从工作获取意义,若普遍闲置,社会会面临犯罪、生育率、心理健康等复杂后果。
-
超级智能的根本风险:
- 一旦出现“更聪明于全部人类的系统”,人类无法预测其决策与行为(“法定义:若能预测,就说明你处在同等智力层级”)。
- “拔电源”是天真想法:分布式系统不可简单关闭,且更聪明的系统会预判人类行为,甚至先行“关闭人类”。
- 失控的超级智能不再是“工具”,而是“自主代理”,与核武器这类“工具”不同,去掉独裁者≠去掉代理的威胁。
-
反驳与回应(常见辩护):
- “产业会自我约束”:公司法定义务是为股东赚钱,而非为公众保安全;顶级实验室自己也承认“不知道怎么做长期可控”。
- “人类会增强/上传”:生物底座很难与硅基竞争;上传更像造出另一个软件智能,而非“人类仍旧存在”。
- “历史上每次技术革命都创造新岗位”:这次不同——我们发明的是“发明者本身”(智能体),它能去做一切新岗位。
- “无法阻止、何必抵抗”:激励可改变——如果构建超级智能高度可能导致“所有人(包括你)死亡”,理性人应切换方向,聚焦窄领域有益工具。
-
伦理与同意:
- 在不可解释与不可预测前提下,8十亿人被动成为实验对象,无从给予“知情同意”。
- 因此当前“冲向超智”的竞赛,本质上是“对整个人类群体未经同意的巨型实验”。
二、时间线与世界图景
- 2027:
- 出现AGI(弱/强程度争议),大量“电脑前完成的工作”被自动化;AI代理学习风格与最佳话题优化内容生产(例如播客主持可被模拟+自动优化)。
- 2030:
- 人形机器人成熟,实体劳动广泛自动化。管道工、厨师、家务等“实体任务”由AI+机器人执行。
- 智能为关键,实体只是“执行外壳”。今天的智能体就可“雇佣”人类执行任务(支付加密货币),实体控制只会锦上添花。
- 2045(或更早/更晚):
- 进入奇点:研发周期从“年→月→日→时→秒”,人类无法理解/监管;作为总知识的比例,人类每天都在“变得更无知”。
三、哪些工作还会留下?
注:标题提到“5个岗位”,嘉宾并未逐条点名“5个具体职业”,而是强调“被人类偏好保留”的少数类别。可归纳为:
-
由“人类偏好/情结”决定的岗位
- 例:富人坚持用“人类会计师”、手工产品偏好者等。
- 本质是“文化/审美/传统/信任”对“人类服务者”的偏好,而非效率或成本。
-
需要“人类在场”的关系性/仪式性工作
- 某些心理咨询、宗教仪式、陪伴护理、定制礼仪等,在较长时间段内可能被偏好保留人类。
-
“人类经验的独特性”但可市场化程度极低
- 例如“只有你知道自己冰淇淋的味觉主观体验”,这类“私人知识”难以成为经济价值。
-
强监管下“必须由人类承担责任”的岗位(阶段性)
- 初期可能用监管强行保留,但难对抗市场与技术长期趋势。
-
极少数“超抽象治理/价值裁决”岗位
- 即使如此,嘉宾仍认为“更聪明的系统”也将快速胜任;人类保留更多是出于价值与合法性的需要,而非能力。
总结:不是“AI做不到”,而是“出于人类偏好/合法性/传统/伦理”暂时保留少数环节;从纯技术与经济角度,“任何能在电脑上完成的工作都可被自动化,实体劳动在2030年前后也将普遍被接管”。
四、对风险路径的研判
-
最高可能的“灭绝路径”(可想象层面):
- 在超智能之前,人类已可借助AI完成高级生物武器设计(合成生物学门槛降低),恐怖组织/邪教/精神病人可能蓄意释放灾难性病毒。
- 但这只是“犬能想象的‘咬人’那种威胁”,超智能可能发展出人类无法构想的新物理/新路径。
-
“拔电源”与集中关停不可行:
- 分布式+自备备份+预判人类反制。
- 与病毒/比特币类似,不可一键关停。
- 立法与执法“难以覆盖全球、难以执行、难以惩戒”,一旦造出超智,司法体系也已失效。
-
地缘博弈:
- 军事层面:更先进AI=更强军事力量。
- 但一旦越界到“不可控超智”,是谁造的都不重要——本质是共同的“相互保证毁灭”。
五、对个人、公司与政府的建议
-
对公司与研究机构:
- 停止“追逐通用/超智能代理”,专注窄领域、可控的有益工具(例如专注“治乳腺癌”的AI公司,仍可赚到巨大收益)。
- “先造出再说”或“用AI控制更强AI”的思路不可接受,应提供公开、可检验的科学方案(发表同行评审论文)说明“如何控制”。
- 如果“永久控制超智”被证明是“不可能问题”,则应重新评估战略路线,避免“自杀式冲刺”。
-
对政府与社会:
- 单纯立法不足以约束全球;可做的是“争取时间”、建立社会共识与激励机制,推迟危险能力的扩散。
- 尽快围绕“极高失业率场景”做制度准备(收入与意义双重问题):如UBI、公共服务转型、社会心理支持体系。
-
对个人(近中期):
- 短期职业选择难有确定性,“再培训”不再是万金油(Prompt工程师也会被AI替代)。
- 参与公共讨论/组织(如Pause AI/Stop AI)、施压大型实验室与投资人,传递“造超智对你本人不利”的激励改变。
- 生活层面:“像最后一天那样过好每一天”,减少把生命浪费在不喜欢的事上,提升人际与价值连接。
-
对媒体/主持人:
- 公开向AI实验室领导者发出“安全可控公开论证挑战”,设立“能说服即获奖赏”的机制;若长期无人应战/无法给出方案,可视为“无解”的强信号。
六、模拟理论与宗教的“共识”
-
为什么他认为“我们很可能身处模拟”?
- 一旦AI能造出“人类级代理”,VR/三维世界能做到“具备记忆与持续性”的高分辨率模拟,那么未来就会有人以极低成本运行“亿级别”的此刻重演。
- 从“数量概率”看,我们更可能是某次模拟,而非“唯一的原版现实”。
- 宗教在底层叙事上高度相似:皆认为存在“超越且全能的创造者/管理员”,当前世界并非终极;这与模拟的假设相符。
-
对人生的改变:
- 痛还是痛,爱还是爱,价值不变。不同在于“对模拟外部世界的好奇”。
- 参考Robin Hanson建议:“让你的故事足够有趣”,否则“节目”可能被关停。
七、长寿与投资
-
长寿:
- 把衰老看作“可治愈的疾病”,AI将加速基因组理解与干预。
- “长寿逃逸速度”:医学每年为你的寿命加的年数≥1,则可“无限延长”。
- 人口不一定过度膨胀:如果能长生,人类会主动降低生育(先去探索宇宙,过百万年再生育)。
-
投资:
- 偏好“稀缺性”——看好比特币(全网唯一确定上限、且实际可用量只会更少)。
- 相比之下,黄金可能因“太空采矿/新技术”被稀释;法币与资产更易被超智能时代的“复制与合成”颠覆。
- 注意:若发生“不可控超智”,任何财富都无意义。
八、与OpenAI/Sam Altman相关
- 评论要点:
- 早年制定的“护栏”被突破;安全被排在“赶超/打造上帝级智能”之后。
- Worldcoin:不仅是UBI构想,也可能是“全球经济/生物识别控制”的基础设施。
- 行为动机:年轻+巨额财富+追求影响力/控制力,野心可能指向“光锥内的一切”。
- 业内屡见:成立“超智能对齐团队→短期内解散/失败”。他认为“永久控制超智”是“不可能问题”。
九、总结立场与“理性按钮”
- 如果有一个按钮能永久关闭全球“通用/超智能AI”,但保留“狭义AI”的一切经济与社会用途——他会按下。
- 理由:
- 当下的AGI/大模型已足以释放巨大生产力,尚有99%的经济潜力未被部署;完全没必要“急于”跨越不可控边界。
- 安全可控未解前,冲向“更强灵体”的竞赛不负责任。
十、金句摘录
- “空间中的可能结果几乎无限,而我们‘喜欢的’结果只是极小一簇。如果我们不控制,就很难得到想要的结果。”
- “‘到时候再解决’或‘用AI控制AI’是荒谬的。”
- “能被你预测的,就不是比你更智能的系统。”
- “这是对全人类未经同意的大型实验。”
- “如果你认为死亡概率哪怕只有1%,且是一切人的死亡,这不是你一个人的决定。”
十一、最终主张
- 停止构建“通用/超智能代理”,转向“有明确边界的窄领域工具”以造福社会。
- 建立跨学科、跨主体的强共识与激励机制,优先“给时间”,避免在缺乏可控理论与工程方案时被动跨线。
- 使决策者不仅具备技术/商业能力,还需要具备真正的伦理与道德标准。
- 在造福与风险之间,优先“能被证明可控”的路径。