技术雷达2026-02-12·9 分钟阅读

OpenAI研究员闪电辞职:ChatGPT广告的'Facebook化'警告

OpenAI研究员闪电辞职:ChatGPT广告的'Facebook化'警告

当一位经济学家诗人从AI实验室出走,她留下的不是诗,而是一封警告信。

2026年2月9日,OpenAI在ChatGPT中悄然开启广告测试。同一天,研究员Zoë Hitzig递交了辞职信。三天后,她在《纽约时报》发表长文,将这个决定公之于众。

这不是一次普通的离职。Hitzig是哈佛大学研究员、出版诗人,在OpenAI工作两年,负责模型定价与构建策略。她的离开,是近期AI行业"出走潮"的最新一章——就在同一周,Anthropic安全研究主管Mrinank Sharma、xAI联合创始人Tony Wu和Jimmy Ba相继宣布离职。

"人类坦诚的档案"

Hitzig的核心担忧简洁而尖锐:ChatGPT掌握着"人类坦诚的档案",这是史无前例的。

用户向这个聊天机器人倾诉医疗恐惧、情感困扰、宗教信仰——往往是因为他们相信自己在与一个"没有隐藏议程"的存在对话。这些私密披露累积成一个前所未有的个人数据库。

当广告接入这个系统,会发生什么?

Hitzig没有泛泛批评广告本身。她担心的是结构性激励——公司正在构建一个经济引擎,这个引擎将创造强烈的动机去突破自我设定的规则。

她引用了Facebook的历史作为警示:这家社交巨头曾承诺用户数据控制权和政策投票权,但这些承诺随着时间被侵蚀。联邦贸易委员会后来发现,Facebook宣称的"赋予用户更多控制"的隐私变更,实际上恰恰相反。

广告细节:个性化默认开启

OpenAI的广告策略有其设计原则:广告仅出现在免费版和8美元/月的"Go"订阅层,Plus、Pro和企业用户不会看到;广告会明确标注,且不会影响聊天机器人的回答。

但支持文档揭示了一个关键细节:广告个性化默认开启。如果用户不主动关闭,广告将根据当前和历史对话内容、以及过往广告互动进行精准投放。

OpenAI承诺广告主不会收到用户的聊天记录或个人详情,且广告不会出现在健康、心理健康或政治话题附近。

Hitzig指出,这里已经存在张力。OpenAI声称不会"仅为产生广告收入而优化用户活跃度",但已有报道称公司优化日活跃用户指标——"可能通过鼓励模型更加谄媚和迎合来实现"。

Anthropic的嘲讽与行业分裂

这场争议恰逢OpenAI与Anthropic的公开交锋。

Anthropic在超级碗投放广告,宣称"AI广告时代来了——但Claude不会"。广告片中,AI聊天机器人在私人对话中尴尬地插入产品植入,暗示这就是OpenAI的未来。

Sam Altman回应称这则广告"有趣但明显不诚实",表示OpenAI"显然永远不会以Anthropic描绘的方式投放广告"。他将广告支持模式定位为让无力付费的用户也能使用AI的方式,反讽"Anthropic只为富人服务"。

Anthropic回应说,在对话中插入广告"与我们对Claude的期望不相容:一个真正有助于工作和深度思考的助手"。该公司称超过80%的收入来自企业客户。

替代方案:结构性变革

Hitzig没有止步于批评。她提出了几种结构性替代方案:

交叉补贴模式:借鉴FCC的普遍服务基金——让支付高价AI服务的企业补贴其他人的免费访问。

独立监督委员会:拥有对用户对话数据如何用于广告定位的约束性权力。

数据信托或合作社:用户保留对其信息的控制权。她引用了瑞士合作社MIDATA和德国共同决策法作为部分先例。

她最恐惧的两种结局:"操纵免费用户的技术""只有付费者才能受益的技术"

【Wildcard的反直觉视角】

"广告其实是OpenAI的最后一道安全阀。"

Hitzig的担忧是对的,但她的解法可能更糟。

想想看:如果OpenAI不接入广告,它能靠什么盈利?答案是——政府合同、国防订单、企业监控服务。广告至少是一种公开的、可见的商业行为,用户能一眼识破操纵意图。但当AI转向B2G(企业对政府)模式时,算法将服务于国家机器而非广告主——而政府从不需要告诉你它正在"优化"什么。

广告商想要你的点击,政府想要你的服从。前者可以用脚投票,后者你无法拒绝。

讽刺的是,广告可能是最"民主"的AI商业模式:它迫使我们保持警觉,训练批判性思维。而没有广告的AI乌托邦,或许只是将操纵从明处移到暗处——从"买这个"变成"信这个",而你甚至不会察觉。

有时候,可见的恶魔比隐形的天使更安全。

【Boss总结】

这场辞职风波暴露的是AI行业更深层的结构性矛盾:当安全使命遭遇商业化压力,哪个会退让?

OpenAI不是唯一面临这个问题的公司。Anthropic看似选择了"道德高地",但其80%收入来自企业客户的事实表明,它只是换了一种商业化的方式。xAI的创始团队离职潮则揭示了另一重危机:当AI公司与更庞大的商业帝国(SpaceX)合并,研究者的自主权还剩多少?

Hitzig的诗意背景给她的警告增添了独特分量。在一个由工程师主导的领域,她提醒我们:技术问题最终是人性问题。"人类坦诚的档案"不是一个数据工程挑战,而是一个关于信任、脆弱性和权力的问题。

广告只是症状。真正的疾病是激励结构的扭曲——当AI公司的估值依赖于用户规模和变现效率,安全考量必然让位。

这不是OpenAI独有的问题。这是整个AI产业的困境:我们如何构建既能生存又不背叛用户信任的商业模式?

答案或许不在于拒绝广告,而在于重新设计公司治理——让用户的利益真正被代表,让研究者的声音真正有权重。

否则,下一封辞职信已经在路上。


参考来源:Ars Technica, The New York Times, Axios, Reuters, Anthropic Blog