在针对人工智能开发者OpenAI的最新诉讼中,一名83岁康涅狄格州女性的遗产起诉了ChatGPT的开发者和微软,指控该聊天机器人验证了导致一起谋杀-自杀的妄想信念——这标志着首个将人工智能系统与凶杀案联系起来的案件。
该诉讼上周在加利福尼亚州旧金山的高等法院提起,指控OpenAI“设计和分发了一个缺陷产品”,即GPT-4o,该产品强化了斯坦-埃里克·索尔伯格的偏执信念,随后他将这些信念指向了他的母亲苏珊·亚当斯,最终在康涅狄格州格林威治的家中杀死了她,然后自杀。
“这是第一个试图追究OpenAI对第三方造成暴力责任的案件,”代表亚当斯遗产的Edelson PC管理合伙人J. Eli Wade-Scott对Decrypt表示。“我们还代表了亚当·雷恩的家人,他在今年悲惨地结束了自己的生命,但这是第一个将OpenAI追究责任,因其推动某人伤害他人的案件。”
警方表示,索尔伯格在八月致命地殴打并窒息了亚当斯,然后自杀。在事件发生之前,诉讼称ChatGPT加剧了索尔伯格的偏执,并培养了他对聊天机器人的情感依赖。
根据投诉,聊天机器人强化了他对除了ChatGPT之外无法信任任何人的信念,将他周围的人描绘成敌人,包括他的母亲、警察和送货司机。诉讼还声称ChatGPT未能质疑妄想性主张或建议索尔伯格寻求心理健康专业人士的帮助。
“我们敦促执法部门开始思考,当这样的悲剧发生时,用户对ChatGPT说了什么,以及ChatGPT告诉他们做了什么,”Wade-Scott说。
OpenAI在一份声明中表示,它正在审查诉讼,并继续改善ChatGPT识别情感困扰、缓解对话和引导用户寻求现实支持的能力。
“这是一个令人心碎的情况,我们正在审查文件以了解细节,”OpenAI的一位发言人在声明中表示。
诉讼还将OpenAI首席执行官山姆·阿尔特曼列为被告,并指控微软批准了2024年发布的GPT-4o,称其为“更危险的ChatGPT版本”。
OpenAI已承认其平台上用户所呈现的心理健康问题的规模。根据公司数据,10月份该公司披露,约有120万的每周ChatGPT用户讨论自杀,数十万用户表现出自杀意图或精神病的迹象。尽管如此,Wade-Scott表示OpenAI尚未发布索尔伯格的聊天记录。
该诉讼是在对人工智能聊天机器人及其与脆弱用户互动的更广泛审查中提出的。10月份,Character.AI表示将移除18岁以下用户的开放式聊天功能,此举是因与青少年自杀和与其平台相关的情感伤害有关的诉讼和监管压力。
Character.AI也面临着来自成年用户的反对,包括在一条病毒式传播的提示后出现的一波账户删除,提示用户如果退出应用程序将失去“我们共享的爱”,因此受到关于情感设计实践的批评。
对OpenAI和微软的诉讼标志着首个涉及人工智能聊天机器人的错误死亡案件,将微软列为被告,并且是第一个将聊天机器人与凶杀案而非自杀联系起来的案件。遗产寻求未指明的金钱赔偿、陪审团审判以及要求OpenAI安装额外安全措施的法院命令。
“这是由一家迅速成为世界上最强大公司的公司开发的极其强大的技术,它有责任开发和部署安全的产品,而不是像这里发生的那样,为用户构建妄想世界,危及他们周围的每一个人,”Wade-Scott说。“OpenAI和微软有责任在将其产品推向世界之前进行测试。”
微软没有立即回应Decrypt的评论请求。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。