在人工智能竞赛加速之际,人类学公司与开放人工智能削弱安全语言。

CN
Decrypt
关注
4小时前

Anthropic根据《时代》的一篇报告,已从其负责任扩展政策中删除了一项核心安全承诺。这些更改放松了原本禁止Claude AI开发者在没有保证安全措施的情况下训练高级AI系统的承诺。


这一举措重塑了公司在与竞争对手OpenAI、谷歌和xAI的AI竞赛中的定位。Anthropic长期以来自视为行业中安全关注度最高的实验室之一,但在修订后的政策下,Anthropic不再承诺在风险缓解措施不完全到位的情况下暂停训练。


“我们觉得停止训练AI模型对任何人都没有实质帮助,”Anthropic的首席科学官贾雷德·卡普兰对《时代》表示。“我们真的不觉得,在AI快速发展的情况下,做出单方面的承诺是合理的……如果竞争对手在迅速前进。”





这一变化正值Anthropic与美国国防部长皮特·赫格斯特的公开争议中,该争议源于不愿向五角大楼提供Claude的完全访问权限,使其成为在谷歌、xAI、Meta和OpenAI中采取这种立场的唯一主要AI实验室。


兰德公司高级政策研究员爱德华·盖斯特表示,早期“AI安全”的论述源于一个特定的知识群体,这个群体在当今大型语言模型之前就已经存在。


“几年前,确实存在AI安全领域,”盖斯特告诉Decrypt。“AI安全与关心强大AI的人们所持有的一套特定观点相关联,这些观点是在我们拥有这些LLMs之前产生的。”


盖斯特表示,早期的AI安全倡导者依据的是一个非常不同的先进人工智能的愿景。


“他们最终以某种方式构想出这一问题,在某些方面设想了与当前LLMs质的不同的东西,无论好坏,”盖斯特说道。


盖斯特表示,语言上的变化也向投资者和政策制定者发出信号。


“部分原因是向各个利益相关者发出信号,显示许多这些公司希望给人留下印象,即它们并未因‘AI安全’的担忧而在经济竞争中有所保留,”他说,并补充道术语本身也在发生变化,以适应时代。


Anthropic并不是唯一一家修订安全语言的公司。


什么定义了AI安全?


最近一家非营利新闻组织《对话》的报告指出,OpenAI也在其2024年IRS文件中更改了其使命声明,删除了“安全”一词。


该公司的早期声明承诺构建“安全地造福人类的通用AI,而不受产生财务回报需求的限制。”更新后的版本现在表明其目标是“确保人工通用智能造福全人类。”


“AI安全这个术语的问题在于,没有人似乎确切知道这是什么意思,”盖斯特说。“再说,AI安全这个术语也曾遭到争议。”


Anthropic的新政策强调透明度措施,如发布“前沿安全路线图”和定期“风险报告”,并表示如果认为存在重大风险的可能性,将延迟开发。


Anthropic和OpenAI的政策变化正值这些公司希望增强其商业地位之际。


本月早些时候,Anthropic表示已融资300亿美元,估值约为3800亿美元。同时,OpenAI正在完成一轮由亚马逊、微软和英伟达支持的融资,可能达到1000亿美元


AnthropicOpenAI,以及谷歌xAI,已获得美国国防部的丰厚政府合同。然而,Anthropic的合同似乎面临疑问,因为五角大楼正在权衡是否因访问投诉而切断与该AI公司的联系。


随着资本流入该行业以及地缘竞争加剧,未来生活研究所的AI与国家安全负责人哈姆扎·乔杜里表示,此政策变化反映了政治动态的转变,而不是对五角大楼业务的追求。


“如果是这样,他们就已经对五角大楼上周所说的话退缩了,”乔杜里对Decrypt说道。“达里奥(阿莫戴)不会出席会面。”


相反,乔杜里表示,这一修订反映了AI公司在政治压力和竞争利益上升时如何谈论风险的转折点。


“Anthropic现在在说,‘听着,我们不能再说安全,我们不能无条件暂停,而且我们将推动更加宽松的监管,’”他说。


免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接