为了应对人工智能驱动的儿童性剥削的上升,OpenAI于周三发布了一项政策蓝图,概述了行业可以采取的新安全措施,以帮助遏制人工智能在创建儿童性虐待材料中的使用。
在该框架中,OpenAI列出了旨在加强对人工智能驱动的虐待保护并改善技术公司与调查人员之间协调的法律、操作和技术措施。
“儿童性剥削是数字时代最迫切的挑战之一,”公司写道。“人工智能正在迅速改变这些危害如何在整个行业中出现,以及如何大规模应对这些危害。”
OpenAI表示,该提案吸纳了在儿童保护和在线安全领域工作的组织的反馈,包括失踪和被剥削儿童国家中心和总检察长联盟及其人工智能工作组。
“生成性人工智能以深具困扰的方式加速了在线儿童性剥削犯罪——降低了门槛,增加了规模,并启用了新的伤害形式,”失踪和被剥削儿童国家中心的总统兼首席执行官米歇尔·德劳恩在一份声明中表示。“但与此同时,失踪和被剥削儿童国家中心感到鼓舞,看到像OpenAI这样的公司反思如何更负责任地设计这些工具,从一开始就嵌入保护措施。”
OpenAI表示,该框架结合了法律标准、行业报告系统和AI模型内的技术保障。公司表示,这些措施旨在帮助更早识别剥削风险,并提高在线平台的问责性。
蓝图确定了行动领域,包括更新法律以应对人工智能生成或修改的儿童性虐待材料,改善在线提供者报告虐待信号并与调查人员协调的方式,以及在防止滥用的AI系统中构建保障措施。
“没有单一的干预措施可以单独解决这一挑战,”公司写道。“该框架将法律、操作和技术方法结合在一起,以便更好地识别风险,加快响应,并支持问责,同时确保执法机构在技术进步时保持强大。”
该蓝图发布之际,儿童安全倡导者已提出担忧,认为能够生成现实图像的生成性人工智能系统可能会被用于创建操控或合成的未成年人图像。今年二月,联合国儿童基金会呼吁各国政府通过法律,明确将人工智能生成的儿童虐待材料定为犯罪。
一月份,欧盟委员会发起了一项正式调查,调查X(前称推特)是否因未能防止其原生人工智能模型Grok生成非法内容而违反欧盟数字规则,同时英国和澳大利亚的监管机构也展开了调查。
OpenAI指出,仅靠法律无法阻止人工智能生成的虐待材料的祸害,随着人工智能系统变得更强大,需要更强的行业标准。
“通过更早地中断剥削尝试,改善发送给执法机关的信号质量,以及加强整个生态系统的问责性,该框架旨在在伤害发生之前防止伤害,并帮助确保在风险出现时更快地保护儿童,”OpenAI表示。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。