4月7日,《纽约客》杂志发布历时18个月的重磅调查,通过两份从未公开的内部文件——前首席科学家Ilya Sutskever的70页"绝密备忘录"和Anthropic CEO Dario Amodei的200页内部笔记——彻底撕开了OpenAI繁荣表象背后的深层裂痕。
这份调查将矛头直指OpenAI CEO Sam Altman,用硅谷内部人士的一致评价概括其核心问题:"撒谎成性"。
当一家估值高达8520亿美元、宣称要"造福全人类"的AI巨头,其掌舵人陷入如此严重的诚信危机,这其中关乎技术伦理与人类未来的根本性问题。
调查揭露的最触目惊心的事实,是OpenAI安全防线的系统性瓦解。2023年,OpenAI高调宣布成立"超级对齐团队",承诺将投入公司20%的总算力进行长期安全研究,由Ilya Sutskever和Jan Leike共同领导。
然而现实与承诺天差地别。据四名亲历者陈述,实际分配给安全团队的算力仅有1%到2%,而且使用的是最老旧、芯片最差的集群,优质硬件全部被预留用于盈利项目。当Jan Leike向时任CTO Mira Murati投诉时,得到的回应竟是:"这个承诺从来就不现实"。
更令人担忧的是,产品安全审查的形同虚设。2022年12月的一次董事会会议上,Altman向成员们保证GPT-4的若干高风险功能已通过安全审查委员会批准。但当董事会成员Helen Toner要求查阅文件时发现,允许用户"微调"模型和将其部署为个人助理均未获批准。
调查还发现,微软在印度提前发布了ChatGPT的早期版本,完全跳过了必要的安全审查流程,而Altman在与董事会的多次长时间汇报中从未提及此事。
《纽约客》的调查还原了2023年11月那场震惊科技界的权力风暴的更多细节。时间回到2023年秋天,看着Altman一再绕过规则,Ilya Sutskever感到了真正的恐惧。
这位首席科学家连公司电脑都不敢碰,用手机偷偷拍下证据,通过"阅后即焚"软件将70页的绝密备忘录发送给三位董事会独立成员。备忘录开篇的第一条指控就是:"Sam Altman表现出持续撒谎、破坏高管信任且挑拨高管相互对抗的模式"。
2023年11月17日,周五中午,Altman在拉斯维加斯观看F1比赛时被邀请参加董事会视频通话,几分钟后被告知被解雇了。
然而接下来的发展超出了所有人的预期。Altman当晚在自己2700万美元的豪宅搭起"作战室",三线齐发,资本施压、员工站队、舆论造势。微软威胁"OpenAI可以从此消失",全员联名信几乎签满,临时CEO Mira Murati最终倒向Altman。
五天后,Altman官复原职,董事会出局。员工给这场反转起名"The Blip"——如同漫威电影中角色消失又回归。
Altman复职后,OpenAI聘请了曾负责安然调查的WilmerHale律所进行独立调查。然而这场本应还原真相的调查,最终没有产生任何书面报告。负责调查的律所仅向两位新董事进行了口头汇报,这意味着许多严重指控至今没有经过正式的独立审查程序。
与此同时,OpenAI内部的安全文化进一步瓦解。2024年,超级对齐团队被解散,Ilya Sutskever和Jan Leike相继离职。Leike在社交媒体上写下了那句令人心寒的话:"安全文化和流程已经让位于闪亮的产品"。
在OpenAI最新的美国国税局申报表中,"安全"一词甚至从公司"最重要业务活动"的描述中消失。
这背后,也许是OpenAI目前正面临严重的财务地震。CFO Sarah Friar因反对在2026年预计亏损140亿美元的背景下激进推进IPO,已被Altman边缘化。为填补巨大的资金缺口,OpenAI已接受美国军方2亿美元的合同,并与特朗普政府达成规模高达5000亿美元的"星门计划"合作。
在资本压力、竞争激烈和技术快速迭代的多重驱动下,安全承诺如何不被商业利益侵蚀?当一家公司掌握着可能重塑人类文明的技术时,应该建立怎样的治理结构和问责机制?
《纽约客》的调查虽然基于大量内部文件和超过100名知情人士的证词,但部分指控来源单一,未经交叉核实。Altman本人接受采访时表示,他的"感觉与很多传统AI安全的东西不匹配",并笼统表示OpenAI仍会"推进安全项目"。
然而,当安全承诺从20%的算力投入缩水到不足2%的淘汰芯片,当安全团队被解散,当"安全"一词从公司核心使命中消失,这些事实本身已经说明了问题。
发表评论
登录
手机
验证码
手机/邮箱/用户名
密码
立即登录即可访问所有OFweek服务
还不是会员?免费注册
忘记密码其他方式
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论