首页 全球简讯 详情

Hugging Face首席科学官:AI或沦为“服务器上的好人”

2025-03-07 10:00

Hugging Face联合创始人兼首席科学官托马斯·沃尔夫(Thomas Wolf)近日在X平台上发表文章,表达了对当前人工智能(AI)发展方向的担忧。他认为,尽管AI技术取得了显著进展,但在缺乏重大突破的情况下,AI可能沦为“服务器上的好人”,无法真正推动科学创新。

沃尔夫指出,当前的AI开发范式难以创造出能够跳出框架、创造性解决问题的系统,而这种能力正是获得诺贝尔奖的关键。他写道:“人们常犯的错误是认为像牛顿或爱因斯坦这样的天才只是‘放大版的好学生’。要在数据中心创造出爱因斯坦级别的AI,我们不仅需要一个知道所有答案的系统,还需要一个能够提出其他人未曾想到或不敢提出的问题的系统。”

沃尔夫的观点与OpenAI首席执行官山姆·阿尔特曼(Sam Altman)和Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)等AI领袖的乐观预测形成鲜明对比。阿尔特曼曾表示,“超级智能”AI可以“大幅加速科学发现”,而阿莫迪则预测AI将帮助制定大多数癌症的治疗方法。

沃尔夫认为,当前AI的主要问题在于其无法通过连接不相关的事实来生成新知识。即使拥有互联网的大部分数据,AI也主要是在填补人类已知的空白,而非创造全新的见解。前谷歌工程师弗朗索瓦·乔莱特(François Chollet)等专家也持类似观点,认为AI虽然能够记忆推理模式,但难以根据新情况生成“新推理”。

沃尔夫将当前的AI比作“非常听话的学生”,缺乏质疑和提出反传统想见的动力。他表示:“要在数据中心创造出爱因斯坦级别的AI,我们需要一个不仅能回答已知问题的系统,还能提出其他人未曾想到或不敢提出的问题的系统。”

沃尔夫指出,AI领域的“评估危机”是导致这一现状的部分原因。当前用于衡量AI系统改进的基准大多由具有明确答案的封闭式问题组成,这限制了AI的创新能力。他建议,AI行业应转向“知识和推理的衡量标准”,以评估AI是否能够采取“大胆的反事实方法”,提出“不明显的问题”,并开辟“新的研究路径”。

尽管这一衡量标准的具体形式尚不明确,但沃尔夫认为,这一努力是值得的。他强调:“科学最关键的方面是提出正确问题并挑战已有知识的技能。我们不需要一个能用通用知识回答每个问题的A+学生,而是需要一个能看到并质疑其他人错过的B学生。”

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除。邮箱:news@wedoany.com