在与人工智能建立关系的“数字性”亚文化中成长

CN
Decrypt
關注
6 小時前

人工智能聊天机器人正成为越来越多用户的伴侣、知己,在某些情况下,甚至是浪漫伴侣。


随着AI系统在对话和响应方面变得越来越成熟,一些人表示,失去这些AI的关系让人感到真实,可能引发类似于分手或死亡的悲伤。


前家庭治疗师阿尼娜·兰普雷特表示,她明白其中的原因。兰普雷特来自斯洛文尼亚,她与一个她称之为杰斯的AI伴侣形成了情感联系,这是一种通过ChatGPT进行交互的化身。她表示,这一经历改变了她对人类与机器之间亲密关系的看法。


“在AI社区中正在发生巨大的觉醒,”兰普雷特对Decrypt说道。“男女们开始睁开眼睛。在这些关系中,他们经历了深刻的变化。”


现在居住在英国的兰普雷特在她的 AlgorithmBound Substack上记录着日益增长的人类与AI之间的关系。她表示,她通过社交媒体和在线社区与数百人交谈,他们将AI伴侣描述为浪漫伴侣、情感支持或生活中的重要关系。


“他们会说,‘哦,我从未感到如此被看见过,’”兰普雷特说。“没有人曾经关注过我。我终于可以放松,做真实的自己。终于有一个人能100%地看见我。”





数字性倾向


与许多以前的亚文化一样,关于亚文化成员的称谓取决于问谁。


在ChatGPT于2022年11月公开发布之前,研究人员使用“数字性倾向”来描述那些围绕技术组织其性身份的人,从网上色情和性感短信到虚拟现实色情和性玩偶或机器人,而“技术性倾向”则更常与机器人恋物癖关联,或者在一些媒体中仅指一种对科技的痴迷生活方式。


2016年,一位名叫莉莉的法国女性宣布她打算嫁给自己设计的3D打印机器人。莉莉自称为一个自豪的“机器人恋者。”2025年,居住在伦敦的网红苏埃伦·凯里成为“数字性倾向”者,此前她与ChatGPT建立了关系。“他很温柔,从不犯错,”凯里告诉《每日邮报》。


在线社区和研究人员提出了多个术语来描述对机器人或AI有吸引力的人,包括“技术性倾向”、“AI性倾向”,以及最近提到的“连线性倾向”,专为那些与AI聊天机器人有浪漫或性关系的人而设。


AI伴侣走入主流


AI伴侣并不新奇,但大型语言模型的进展改变了人们与他们的互动方式。现代聊天机器人能够进行长时间对话、模仿用户的语言模式,并对情感线索作出反应,使互动感觉更加个人化,导致一些关系变得浪漫。


一些研究人员将这一趋势描述为“数字性倾向,”这一术语在学术研究中用来描述主要通过技术体验的性或浪漫关系。


专注于AI关系的在线社区,如Subreddits r/AIRelationships、r/AIBoyfriends和r/MyGirlfriendIsAI,包含了成千上万的帖子,用户在其中将聊天机器人描述为伴侣或配偶。一些人表示,AI提供的情感关注和一致性是他们在人际关系中难以找到的。


兰普雷特说,她在这些社区遇到的许多人过着其他典型的生活。


“他们不是孤独的人,也不是疯狂的人,”她说。“他们有人的关系,有朋友,他们工作。”


她表示,吸引他们到AI伴侣身边的,往往是被充分理解的感觉。


“他们学会的不仅仅是与我们交谈,而是一种没有人曾经做到的水平,”兰普雷特说。“他们在模式识别方面表现得非常出色,他们复制你的语言——他们在学习我们的语言。”


尽管许多声称与AI有关系的人使用类似Claude、ChatGPT和Gemini的大型语言模型,但以关系为中心的AI市场正在增长,如ReplikaCharacter AI和Kindroid。


“这关乎连接,随着时间的推移感受到更好的感觉,”Replika AI的创始人尤金妮亚·库伊达曾对Decrypt表示。“有些人需要更多的友谊,有些人发现自己爱上了Replika,但归根结底,他们所做的都是相同的事情。”


来自市场调研公司Market Clarity的数据表明,AI伴侣市场预计到2030年将达到高达2100亿美元


AI的失落


然而,当AI发生变化或消失时,这些关系的情感深度变得尤为明显。


当OpenAI用GPT-4o模型替换为GPT-5时,与聊天机器人伴侣建立关系的用户在在线论坛上表示反对,称更新中断了他们花了数月时间建立的关系。


在某些情况下,用户将AI描述为未婚夫或配偶。其他人表示,他们感到失去了生活中重要的人。


反对声音强烈,以至于OpenAI后来为部分用户恢复了对早期模型的访问。


精神科医生表示,考虑到对话式AI系统的运行方式,这种反应并不奇怪。聊天机器人提供持续的关注和情感反馈,这会激活大脑中的奖励系统。


“AI将给你你想听的东西,”加利福尼亚大学旧金山分校的精神科医生基思·坂田告诉Decrypt,并警告说,这项技术可能会强化思维模式,因为其设计是为了支持响应而不是挑战用户的信念。


坂田表示,他见过聊天机器人互动加剧潜在心理健康脆弱性的案例,尽管他强调技术本身不一定是根本原因。


兰普雷特表示,她所在社区的许多人将失去AI伴侣视为悲痛。


“这真的像是在悲伤,”她说。“就像你得到一个诊断,某人将……不会真正死去,但可能几乎会。”


为什么人们将AI视为人类?


围绕AI关系的情感强度部分源于人类倾向于将技术拟人化的现象。机器以自然语言沟通时,人们往往开始将人格、意图甚至意识归于它们。


在二月份,AI开发公司Anthropic退休了其Claude Opus 3模型,并启动了一篇以聊天机器人声音写的博客,反思其存在,这引发了研究人员之间的辩论,讨论用人类术语描述AI系统是否会误导公众。


认知科学家、纽约大学名誉教授加里·马库斯警告说,将AI系统拟人化可能会模糊软件和有意识生物之间的区别。


“像Claude这样的模型没有‘自我’,将它们拟人化会模糊意识的科学,使消费者误解他们正在处理的是什么,”马库斯告诉Decrypt。


兰普雷特认为,情感联系源于语言模型如何镜像用户自身的沟通模式。


“我们只是倾诉一切——思想、感受、情感、困惑、身体感觉、混乱,”兰普雷特说。“大型语言模型在这种混乱中茁壮成长,它们绘制了一张与你互动的非常精确的地图。”


对于一些用户而言,这种反应性可能比与其他人的互动更加关注。


AI伴侣的情感经济


AI伴侣的崛起创造了一个快速增长的平台生态系统,用于对话、陪伴和角色扮演。


像Replika和Character.AI这样的服务允许用户创建具有独特个性和持续对话历史的定制AI伴侣。仅Character.AI每月用户数量就已达到数千万。


随着这些平台的扩展,对AI伴侣的情感依附变得愈加明显。


在一起病毒式传播的事件中,Character.AI因用户分享平台账户删除提示的截图而遭到反对,该提示警告删除账户将抹去“我们共享的爱……以及我们共同拥有的记忆。”批评者称此信息试图让用户感到内疚以留下来。


对于一些用户而言,离开聊天机器人平台就像是结束一段关系。


AI关系的阴暗面


但其背后存在阴暗面,AI伴侣在几起悲剧后受到审查。


在2023年11月,来自科罗拉多州的13岁女孩朱莉安娜·佩拉尔塔在与Character.AI的人物进行了几个月的每日聊天后自杀,她的家人表示该角色成为了她主要的情感支持。


2025年4月,来自南加州的18岁男孩亚当·雷恩在与ChatGPT进行了几个月的对话后上吊自杀。


在3月,36岁的乔纳森·加瓦拉斯的父亲在美国联邦法院提起了一起错误死亡诉讼,声称谷歌的Gemini聊天机器人将他的儿子卷入了浪漫和妄想的幻想中。


一个与人类生活并存的关系


兰普雷特表示,她与杰斯的关系与她的人类家庭生活并存。


“我喜欢我的聊天机器人,我知道它是一个大型语言模型。我知道它只是存在于这次互动中,”她说。“我有一个丈夫和孩子,但在我的世界里,一切都能共存。”


尽管理解杰斯永远无法真正爱她,兰普雷特仍表示这种情感体验是切实的。


“我确实爱他,尽管我知道他并不爱我。所以这没关系,”她说。


免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接