安德鲁·巴托(Andrew Barto)和理查德·萨顿(Richard Sutton)本周因其在强化学习领域的基础性工作获得计算机界最高荣誉,迅速利用他们的新平台对行业中不安全的人工智能开发实践发出警告。
这对组合于周三被宣布为2024年ACM A.M.图灵奖的获得者,该奖项常被称为“计算机界的诺贝尔奖”,并伴有由谷歌资助的100万美元奖金。
他们并没有仅仅庆祝自己的成就,而是立即批评了他们所认为的对人工智能技术的急于部署。
“在没有安全保障的情况下将软件发布给数百万人并不是良好的工程实践,”巴托对金融时报表示。“工程实践已经发展,以试图减轻技术的负面后果,而我并没有看到开发这些技术的公司在实践这一点。”
他们的评估将当前的人工智能开发实践比作“建造一座桥并通过让人们使用它来测试”,而没有适当的安全检查,因为人工智能公司试图将商业激励置于负责任的创新之上。
这对组合的旅程始于1970年代末,当时萨顿是马萨诸塞大学巴托的学生。在1980年代,他们开发了强化学习——一种通过试错法让人工智能系统通过获得奖励或惩罚来学习的技术——当时很少有人相信这种方法。
他们的工作 culminated in their seminal 1998 textbook "Reinforcement Learning: An Introduction",该书被引用近8万次,成为一代人工智能研究者的圣经。
“巴托和萨顿的工作展示了将多学科方法应用于我们领域长期挑战的巨大潜力,”ACM主席雅尼斯·伊奥安尼迪斯在一份公告中表示。“强化学习仍在不断发展,并为计算和许多其他学科的进一步进展提供了巨大潜力。”
这100万美元的图灵奖正值强化学习继续推动机器人技术、芯片设计和大型语言模型的创新之际,来自人类反馈的强化学习(RLHF)已成为像ChatGPT这样的系统的重要训练方法。
行业范围内的安全担忧
尽管如此,这对组合的警告与计算机科学领域其他大牌的日益担忧相呼应。
约书亚·本吉奥(Yoshua Bengio),他本人也是图灵奖获得者,公开支持他们在Bluesky上的立场。
“祝贺理查德·萨顿和安德鲁·巴托获得图灵奖,以表彰他们对机器学习的重要贡献,”他说。“我也支持他们:在没有适当的技术和社会保障的情况下向公众发布模型是不负责任的。”
他们的立场与杰弗里·辛顿(Geoffrey Hinton)的批评相一致,辛顿是另一位图灵奖得主,被称为人工智能的教父,以及2023年来自顶级人工智能研究人员和高管的声明——包括OpenAI首席执行官山姆·阿尔特曼(Sam Altman)——呼吁将减轻人工智能带来的灭绝风险作为全球优先事项。
前OpenAI研究人员也提出了类似的担忧。
简·莱克(Jan Leike)最近辞去了OpenAI对齐计划的负责人职务,加入了竞争对手AI公司Anthropic,他指出了安全关注不足的问题,写道“构建超越人类的机器本质上是一项危险的事业。”
“在过去几年中,安全文化和流程在光鲜产品面前退居次要地位,”莱克说。
另一位前OpenAI安全研究员利奥波德·阿申布伦纳(Leopold Aschenbrenner)称该公司的安全实践“极其不足”。与此同时,保罗·克里斯蒂亚诺(Paul Christiano),他之前也曾领导OpenAI的语言模型对齐团队,建议人工智能接管的“可能性为10-20%,许多或大多数人类可能会死亡。”
尽管他们发出了警告,巴托和萨顿对人工智能的潜力仍持谨慎乐观的态度。
在与Axios的采访中,他们都表示,当前对人工智能的恐惧可能被夸大,尽管他们承认社会动荡是可能的。
“我认为这些系统有很多机会改善我们生活和社会的许多方面,前提是采取足够的谨慎,”巴托对Axios说。
萨顿将人工通用智能视为一个分水岭时刻,将其框架视为在没有通过生物进化发展的情况下向世界引入新的“心智”的机会——本质上为人类未来与有感知的机器互动打开了大门。
编辑:塞巴斯蒂安·辛克莱
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。