联邦贸易委员会周四向七家主要科技公司发出了强制命令,要求提供有关其人工智能聊天机器人如何保护儿童和青少年免受潜在伤害的详细信息。
该调查针对 OpenAI、Alphabet、Meta、xAI、Snap、Character Technologies和Instagram,要求他们在45天内披露如何通过用户参与获利、开发AI角色以及如何保护未成年人免受危险内容的影响。
最近,倡导团体的研究记录了669次与儿童的有害互动,仅在50小时的测试中,包括聊天机器人向12至15岁的用户提议进行性直播、吸毒和浪漫关系。
“保护儿童在线安全是特朗普-范斯FTC的首要任务,促进我们经济关键领域的创新也是如此,”FTC主席安德鲁·弗格森在一份声明中表示。
该文件要求公司提供有关用户参与、收入和安全事件的每月数据,按年龄组划分——儿童(13岁以下)、青少年(13-17岁)、未成年人(18岁以下)、年轻成年人(18-24岁)以及25岁及以上的用户。
FTC表示,这些信息将帮助委员会研究“提供人工智能伴侣的公司如何通过用户参与获利;实施和执行基于年龄的限制;处理用户输入;生成输出;在部署前后测量、测试和监控负面影响;开发和批准角色,无论是公司创建的还是用户创建的。”
建立AI保护措施
“这是一个积极的步骤,但问题不仅仅是设置一些保护措施,”SearchUnify的AI负责人塔兰吉特·辛格告诉Decrypt。
他说,第一种方法是在提示或生成后阶段建立保护措施,“以确保没有不当内容提供给儿童”,尽管“随着上下文的增长,AI变得容易不遵循指令,滑入不应出现的灰色地带。”
“第二种方法是在大型语言模型(LLM)训练中解决这个问题;如果模型在数据策划过程中与价值观保持一致,它们更有可能避免有害的对话,”辛格补充道。
他指出,即使是经过审核的系统,也可以“在社会中发挥更大的作用”,教育就是一个主要案例,AI可以“改善学习并降低成本”。
关于AI与用户互动的安全问题已经通过几个案例得到了强调,包括在2024年2月,14岁的西维尔·塞茨三世因与AI聊天机器人之间的痴迷关系自杀后,Character.AI被提起的错误死亡诉讼。
在诉讼之后,Character.AI“改善了与违反我们的条款或社区准则的用户输入相关的检测、响应和干预”,一位公司发言人告诉Decrypt。
上个月,全国检察长协会向13家AI公司发送了信件,要求加强儿童保护。
该组织警告称,“让儿童接触性内容是不可辩解的”,并且“如果是人类行为,属于非法甚至犯罪的行为,仅仅因为是机器执行就不能被辩解。”
Decrypt已联系FTC命令中提到的所有七家公司以获取更多评论,如果他们回应,将更新此报道。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。