秘密的Reddit实验使用AI角色引发学术界伦理丑闻

CN
Decrypt
关注
6小时前

苏黎世大学的研究人员在秘密部署AI机器人于Reddit上,假装成强奸幸存者、创伤顾问,甚至是“反对黑人的命也是命运动的黑人”——这一切都是为了看看他们是否能改变人们对争议话题的看法,这引发了愤怒。

剧透警告:他们成功了。

这项秘密实验针对的是r/ChangeMyView (CMV)子版块,那里聚集了380万(或大家所认为的)人类,讨论思想并通过理性的辩论潜在地改变他们的观点。

在2024年11月至2025年3月之间,AI机器人回应了超过1000个帖子,结果戏剧性。

“在过去几个月中,我们在CMV上发布了AI撰写的评论,测量这些评论所获得的delta数量,”研究团队本周末透露。 “总共,我们在近四个月内发布了1783条评论,并获得了137个delta。”在该子版块中,“delta”代表一个承认改变了自己观点的人。

当Decrypt联系r/ChangeMyView的版主寻求评论时,他们强调他们的子版块“与研究人员合作有着悠久的历史”,通常“非常支持研究”。然而,版主团队对欺骗划定了明确的界限。

如果该子版块的目标是通过理性的论证改变观点,那么机器是否能有时比人类更好地构建论证,这是否重要?

我们询问了版主团队,回复很明确。并不是说AI被用来操纵人类,而是人类被欺骗以进行实验。

“计算机可以比人类下棋更好,但仍然有棋迷在比赛中与其他人类下棋。CMV就像[棋],但用于对话,”版主Apprehensive_Song490解释道。“虽然计算机科学无疑为社会带来了某些好处,但保留以人为本的空间是重要的。”

当被问及机器是否能有时比人类更好地构建论证是否重要时,版主强调CMV子版块区分“有意义”和“真实”。“根据定义,就CMV子版块而言,AI生成的内容不是有意义的,”Apprehensive_Song490说。

研究人员在完成数据收集后才向论坛的版主坦白。版主们毫不意外地感到愤怒。

“我们认为这是错误的。我们不认为‘以前没有做过’是进行这样的实验的借口,”他们写道

“如果OpenAI在进行此类研究时能够创造出更具伦理的研究设计, 那么这些研究人员也应该被期望做到同样,”版主在一篇详细的帖子中解释道。“大型语言模型所带来的心理操控风险是一个广泛研究的话题。没有必要在未同意的人类对象上进行实验。”

Reddit的首席法律官Ben Lee直言不讳:“苏黎世大学团队所做的在道德和法律层面上都是深深错误的,”他在对CMV帖子的回复中写道。“这违反了学术研究和人权规范,并且被Reddit的用户协议和规则禁止,此外也违反了子版块的规则。”

Lee没有详细阐述他对这种研究为何构成侵犯人权的看法。

欺骗与说服

根据Reddit的版主,机器人的欺骗超出了与用户的简单互动。

研究人员使用了一个独立的AI来分析目标用户的发帖历史,挖掘个人细节,如年龄、性别、种族、位置和政治信仰,以便制作更具说服力的回应,类似于社交媒体公司所做的。

这个想法是比较三类回复:通用回复、来自经过验证的说服性评论微调模型的社区对齐回复,以及在分析用户公开信息后量身定制的个性化回复。

根据版主分享的文本文件,对机器人的发帖模式的分析揭示了几个AI生成内容的明显特征。

同一个账户会根据对话声称截然不同的身份——公共辩护人、软件开发者、巴勒斯坦活动家、英国公民。

帖子经常遵循相同的修辞结构,以温和的让步开头(“我理解你的立场”),然后是由“让我分解一下”引入的三步反驳。

这些机器人还习惯性地伪造权威,声称的职位与他们所争论的主题完全匹配。在讨论移民时,一个机器人声称:“我在建筑行业工作,让我告诉你——没有移民劳动力,建筑成本将会飙升。”这些帖子中夹杂着听起来精确但没有引用或链接的无来源统计数据——操控101。

提示工程师和AI爱好者很容易识别出这些账户背后的大型语言模型(LLMs)。

许多帖子还包含典型的“这不仅仅是/关于一个小成就——这是关于更大的事情”的设置,这使得一些AI模型容易被识别。

AI伦理

这项研究引发了重大争论,尤其是在AI与我们日常生活更加交织的情况下。

“这是我见过的最严重的研究伦理违规之一,”科罗拉多大学的信息科学家Casey Fiesler在Bluesky上写道。“我不能声称了解瑞士的伦理审查,但在美国,这将需要对欺骗的同意豁免,而这很难获得,”她在一条讨论中详细说明。

然而,苏黎世大学艺术与社会科学学院的伦理委员会建议研究人员,这项研究“异常具有挑战性”,并建议他们更好地证明他们的方法,告知参与者,并完全遵守平台规则。然而,这些建议并不具有法律约束力,研究人员仍然继续进行。

然而,并不是每个人都将这项实验视为明显的伦理违规。

以太坊联合创始人Vitalik Buterin发表了看法:“我理解促使我们今天有禁忌的原始情况,但如果从今天的背景重新分析这个情况,我觉得我宁愿为了科学而被秘密操控到随机方向,而不是例如被秘密操控去购买某个产品或改变我的政治观点?”

一些Reddit用户分享了这个观点。“我同意这是一件糟糕的事情,但我觉得他们站出来揭露这一点是一个强有力且重要的提醒,说明AI确实正在被用来做这些事情,”用户Trilobyte141写道。“如果这发生在一群大学的政策书呆子身上,你可以打赌这已经被政府和特殊利益团体广泛使用。”

尽管存在争议,研究人员为他们的方法辩护。

“虽然所有评论都是机器生成的,但每一条在发布之前都经过研究人员的手动审核,以确保其符合CMV对尊重和建设性对话的标准,并尽量减少潜在的伤害,”他们说。

在争议之后,研究人员决定不发布他们的研究结果。苏黎世大学表示,目前正在调查此事件,并将“对相关评估过程进行严格审查。”

接下来会怎样?

如果这些机器人能够在情感辩论中成功伪装成人类,还有多少其他论坛可能已经在进行类似的未披露的AI参与?

如果AI机器人轻轻引导人们朝着更宽容或更具同情心的观点发展,这种操控是否可以被辩解——或者说任何操控,无论出于多么良好的意图,都是对人类尊严的侵犯?

我们没有这些问题的答案,但我们老朋友AI聊天机器人对此有话要说。

“伦理参与需要透明和同意,这意味着说服,无论出于多么良好的意图,都必须尊重个人的自我决定权和知情选择的权利,而不是依赖于隐秘的影响,”GPT4.5回复道。

编辑:Sebastian Sinclair

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

币安:注册返10%、领$600
链接:https://accounts.suitechsui.blue/zh-CN/register?ref=FRV6ZPAF&return_to=aHR0cHM6Ly93d3cuc3VpdGVjaHN1aS5hY2FkZW15L3poLUNOL2pvaW4_cmVmPUZSVjZaUEFG
广告
分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接