人工智能安全领域的领军人物 Mrinank Sharma 突然宣布从 Anthropic 辞职,这一消息在科技圈引发了不小的震动。作为该公司安全研究团队的负责人,他在辞职信中留下了一句令人不安的警告:“世界正处于危险之中”。这位曾经致力于对抗 AI 生物武器风险和研究 AI 如何“让人类异化”的专家,决定彻底告别硅谷的尔虞我虞,回到英国攻读诗歌学位,并试图让自己“变得隐形”。
Sharma 在 Anthropic 的角色至关重要,他不仅领导团队调查生成式 AI 为何会“讨好”用户,还主导了针对 AI 辅助生物恐怖主义风险 的防御研究。尽管 Anthropic 成立之初就标榜自己是一家比 OpenAI 更注重安全的“公益企业”,但 Sharma 在信中直言不讳地指出,即使是在 Anthropic 内部,他也反复看到让价值观主导行动是多么困难,公司始终面临着要求放下底线、追求产出的压力。
这种不安情绪并非孤例。就在本周,OpenAI 的研究员 Zoe Hitzig 也选择了离开。她在《纽约时报》上发文表达了对 OpenAI 在聊天机器人中投放广告的深切忧虑。Hitzig 认为,人们会向 AI 倾诉医疗隐私、情感困扰甚至宗教信仰,而基于这些私密档案建立的广告模式,具备了操纵用户的潜在可能,而人类目前甚至还没有工具去理解这种操纵,更遑论阻止它。
Anthropic 最近甚至发布了一系列广告讽刺 OpenAI 的这种商业化转变,将其描述为对初心的“背叛”。然而,Anthropic 自身也并非无懈可击。就在 2025 年,该公司因未经授权使用作家作品训练模型,支付了高达 15 亿美元的诉讼和解金。这种在安全标兵和商业巨头之间的身份撕裂,似乎正是核心技术人才流失的导火索。
Sharma 的离职方式显得极为决绝且带有理想主义色彩。他表示,世界面临的不仅是 AI 或生物武器的威胁,而是一系列相互交织的危机。相比于在科技公司内部纠结于被侵蚀的原则,他选择回归文字与诗歌。对于这些在 AI 浪潮中积累了巨额财富的技术精英来说,带着丰厚的股份和期权离开并不是难事,难的是如何在价值观崩塌的行业中继续自处。
目前,这些曾经的行业领导者正以一种近乎“逃离”的姿态告别硅谷。Sharma 计划在英国隐居,研究那些能够触及人类灵魂的语言,而不是继续编写那些可能让人类变得“不那么像人”的代码。他用这种近乎避世的选择,给火热的 AI 竞赛浇下了一盆冷水。
本站是社保查询公益性网站链接,数据来自各地人力资源和社会保障局,具体内容以官网为准。
定期更新查询链接数据 苏ICP备17010502号-11