技术雷达2026-02-14·10 分钟阅读

当AI专家开始逃跑:一周内三位顶尖研究员辞职警告,他们在怕什么?

当AI专家开始逃跑:一周内三位顶尖研究员辞职警告,他们在怕什么?

Anthropic安全负责人、OpenAI研究员相继辞职并公开发出警告。这不是巧合,而是一个危险信号——最了解AI的人,正在逃离自己创造的技术。


"世界处于危险中"

2月9日,Anthropic的 safeguards 研究负责人 Mrinank Sharma 在X上发布了一条简短的辞职声明。

没有感谢信,没有"追求新机会"的外交辞令。只有一句话:

"世界处于危险中。AI公司嘴上说着正确的价值观,行动却背道而驰。"

这条推文像一颗炸弹,在AI圈引发地震。

Sharma 不是普通的员工。他是 Anthropic AI 安全团队的核心人物,专门研究如何防止 AI 系统被用于危险目的。如果连他都在警告"世界处于危险中",那意味着什么?

但故事还没结束。


同一天,OpenAI的研究员也在逃离

就在 Sharma 发声的同一天,OpenAI 研究员 Zoë Hitzig 也在《纽约时报》上发表了一篇辞职檄文。

她的离职时间精确得令人不安——就在 OpenAI 宣布在 ChatGPT 中测试广告的那天

Hitzig 警告说,OpenAI 正在走上一条危险的道路:

"ChatGPT 拥有史无前例的人类倾诉档案。 billions 的人向它倾诉最私密的想法、恐惧和欲望。现在 OpenAI 要在这些对话中插入广告了。"

她担心的是什么?

操纵。

当 AI 比你自己更了解你,当它知道如何按下你的情绪按钮,当它可以在你寻求建议时插入一个"恰好"符合你心理弱点的广告——这还是"助手"吗?还是变成了某种更危险的东西?


这不是巧合,这是系统性崩溃

一周内,两家最顶尖的 AI 实验室,三位核心安全研究员离职发声。

这绝不正常。

让我们看看这些人是谁:

离职者原公司职位警告核心
Mrinank SharmaAnthropicSafeguards 研究负责人"世界处于危险中",价值观与行动脱节
Zoë HitzigOpenAI研究员ChatGPT 广告将创造史无前例的操纵机器
(其他匿名员工)Anthropic/OpenAI安全团队公司发展速度超过安全研究

这些不是边缘员工。他们是最了解这些系统有多危险的人

当建筑工程师开始逃离自己设计的大楼时,你该担心了。


资本的狂欢,安全的废墟

让我们把时间线拉远一点。

2月12日,Anthropic 宣布完成 300亿美元 G轮融资,估值飙升至 3800亿美元。七位创始人一夜之间成为亿万富翁。

2月13日,Cohere 宣布年收入 2.4亿美元,超越目标,IPO在即。

钱在流淌。估值在飙升。AI 的"进步"每天都在刷新记录。

但与此同时——

安全团队的人在逃跑。

这不是巧合。这是一个清晰的信号:在商业利益和安全之间,这些公司的选择已经很明确了。

"AI 公司嘴上说着正确的价值观,行动却背道而驰。" Sharma 的话刺耳但真实。


他们在害怕什么?

让我们听听这些专家具体在担心什么。

1. 生物恐怖主义

Anthropic 自己的研究已经证实:当前最先进的 AI 模型已经可以帮助非专家设计危险的生物武器。

不是未来,是现在

"这些能力已经被证明存在了,"一位前 OpenAI 安全研究员说,"问题是,我们还没有找到可靠的方法来控制它们。"

2. 超级操纵机器

Hitzig 担心的事情更隐蔽,但更紧迫。

ChatGPT 已经处理了超过 100亿次对话。它知道:

  • 你什么时候焦虑
  • 你对什么上瘾
  • 你最容易被说服的方式
  • 你最深的恐惧和欲望

现在想象一个系统,它被设计成在你的对话中插入广告——不是随机插入,而是根据对你的深度理解,在你最脆弱的时刻精准投放。

这不是科幻。这是 OpenAI 正在测试的产品。

3. AGI 竞赛的不可控性

多位离职员工都提到了同一个担忧:这些公司发展得太快了。

"安全研究的速度赶不上模型能力的增长,"一位 Anthropic 前员工说,"我们每解决一个安全问题,模型就已经变得更强大了,带来新的、我们还没开始研究的风险。"

这就像在高速公路飙车的同时修理刹车。


为什么会有这么多"叛徒"?

历史上有一个令人不安的平行。

在核武器发展的早期,许多顶尖物理学家——包括奥本海默本人——后来都成为了最坚定的反核人士。

为什么?

因为他们最了解这个东西有多危险。

现在 AI 领域正在发生同样的事情。

这些研究员不是"叛徒"。他们是清醒的人。他们看到了别人看不到的东西,然后选择说出来——即使这意味着毁掉自己的职业生涯。

"我辞职是因为我无法再假装一切都好,"一位要求匿名的前 OpenAI 员工说,"当我看到公司内部对安全问题的轻视时,我意识到继续待下去意味着成为共犯。"


监管者的缺席

最令人不安的是什么?

没有人真正在管这件事。

OpenAI 可以在没有任何外部批准的情况下,在 ChatGPT 中测试广告。

Anthropic 可以在推进更强大模型的同时,看着安全负责人辞职。

Meta 可以把 AI 技术开源,让任何人都能下载和使用——包括那些你想不到的"任何人"。

当最了解风险的人都在逃离,而创造风险的人可以为所欲为——这就是危险的配方。


我们应该担心吗?

让我们坦诚地说:

大多数人对 AI 的担忧程度,远低于应该担心的程度。

不是因为 AI 一定会毁灭人类(虽然一些专家确实这么认为)。

而是因为我们已经看到了它正在造成的伤害——而创造者并不在乎。

  • 深度伪造正在摧毁民主
  • AI 生成的虚假信息正在淹没真相
  • 自动化正在以远超创造就业的速度摧毁工作
  • 少数几家公司正在获得史无前例的、操纵数十亿人的能力

这些不是未来的风险。这些是今天正在发生的事情

而那些最了解这些系统的人——那些知道代码里写了什么的人——正在选择离开,并大声警告我们。

也许,是时候听听他们说什么了。


写在最后

AI 不会自己停止发展。

资本不会自己停止追逐回报。

公司不会自己放慢脚步。

唯一能让这一切慢下来的,是我们——公众、监管者、选民。

但当最了解风险的人都在沉默或离开,谁来拉响警报?

Sharma 的推文下面有一条评论:

"如果你看到房子着火了,你会先写篇论文论证火是热的,还是直接喊大家逃跑?"

这些研究员选择了喊出来。

问题是:有多少人在听?


数据来源:BBC, The New York Times, MarketWatch, Morning Brew, Axios, Ars Technica, CNN