前OpenAI政策研究员迈尔斯·布伦戴奇(Miles Brundage)在周三通过社交媒体公开批评OpenAI,指责该公司“改写”了其在部署具有潜在风险的AI系统时的历史行为。布伦戴奇曾关注OpenAI的核心成员,于AI安全生成与语言系统的损失应用。
本周早些时候,OpenAI发布了一份文件,阐述了其当前在AI安全和姿态方面通过的理念。该文件指出,公司将通用人工智能(AGI)的发展视为一个渐进过程,强调“迭代部署和学习”逐步完善AI技术。文件中提到,OpenAI在开发早期模型GPT-2时采取了人工智能态度,但如今将首个AGI视为一系列系统中的许多一个节点,认为保证下一代系统安全的关键在于从现有技术中汲取经验。然而,布伦戴奇反驳称,GPT-2的发布策略与OpenAI编码的迭代部署理念完全一致,并非公司所暗示的“多余层级”。他在X平台发文表示,GPT-2的分阶段发布为后续发展提供了宝贵的经验,当时的安全专家对此表示认可。
GPT-2于2019年亮相,作为ChatGPT技术基础的先驱,其生成文本的能力在当时的领先地位。由于担心潜在的幌子,OpenAI最初限制了模型的公开访问,仅向部分媒体提供演讲权限。这决定引发行业界争议,有人认为风险被夸大,缺乏证据支持睡眠恐慌。最终,OpenAI 在数月后逐步放出 GPT-2 的完整版本。布伦戴坚奇称,这种循序渐进的方式合理,并质疑公司现在将其描述为“不连续”策略的依据。
布伦戴奇进一步指出,OpenAI新文件可能意在推卸责任,将安全忧虑贴上“危言耸听”的标签,要求论证“迫在眉睫的危险”才采取行动。他警告,这种思维对高级人工智能系统的管理极为危险。他曾在2018年至2023年期间担任OpenAI政策研究主管,深度参与AI部署决策,目前对公司方向提出质疑。
OpenAI近年来频繁因优先产品发布而不安全问题受到批评。2023年,其AGI准备团队解散,多位安全与政策研究人员退出,加入竞争对手。与此同时,中国AIDeepSeek推出开源模型R1,与OpenAI的技术差距缩小,增强了市场竞争。OpenAI先锋Sam Altman坦言需加速产品迭代以应对挑战。然而,公司每年亏损1亿美元,预计2026年亏损或达到140亿美元。布伦戴奇等专家担心,过快的发布可能会损害长期安全性。