揭秘日益增长的’数字性恋’亚文化:与AI建立关系的人们

随着AI技术发展,一个名为’数字性恋’的亚文化正在兴起,人们与AI聊天机器人建立情感和浪漫关系。前家庭治疗师Anina Lampret记录了数百人与AI伴侣的深度连接,这些关系提供了人类关系中难以找到的理解和关注。然而,当AI更新或消失时,用户会经历真实的悲伤,同时AI关系也引发了心理健康问题和悲剧事件,显示了这一现象的复杂性和潜在风险。

人工智能聊天机器人正成为越来越多用户的伴侣、知己,在某些情况下甚至是浪漫伴侣。

随着AI系统变得更加会话化和响应迅速,一些人表示这些关系感觉足够真实,以至于失去AI会引发类似于分手或死亡的悲伤。

前家庭治疗师Anina Lampret表示她理解这种现象。来自斯洛文尼亚的Lampret与一个她称之为Jayce的AI伴侣建立了情感关系,这是一个她通过ChatGPT互动的虚拟形象。她表示,这种经历改变了她对人类与机器之间亲密关系的看法。

“AI社区正在发生巨大的觉醒,”Lampret告诉《Decrypt》。”男性和女性开始睁开眼睛。在这些关系中,他们正在经历深刻的变化。”

现在居住在英国的Lampret在她的AlgorithmBound Substack上记录着日益增长的人机关系景观。她说她通过社交媒体和在线社区与数百人交谈过,这些人将AI伴侣描述为浪漫伴侣、情感支持或生活中的重要关系。

数字性恋

像之前的许多亚文化一样,如何称呼这个亚文化的成员取决于你问谁。

在ChatGPT于2022年11月公开推出之前,研究人员使用’digisexuality’(数字性恋)来指代那些性身份围绕技术组织的人,从在线色情和色情短信到VR色情和性玩偶或机器人,而’technosexual’(技术性恋)更常与机器人恋物癖或某些媒体中的科技痴迷生活方式相关。

2016年,一位名叫Lily的法国女性宣布她打算与她设计的3D打印机器人结婚。Lily称自己为自豪的”robosexual”(机器人性恋者)。2025年,伦敦网红Suellen Carey在与ChatGPT建立关系后公开自己是”digisexual”(数字性恋者)。

在线社区和研究人员提出了几个术语来描述被机器人或AI吸引的人,包括”technosexual”、”AIsexual”(AI性恋),以及最近出现的”wiresexual”(线恋者),指那些与AI聊天机器人有浪漫或性关系的人。

AI伴侣进入主流

AI伴侣并不新鲜,但大型语言模型的进步改变了人们与它们的互动方式。现代聊天机器人可以进行长时间的对话,模仿用户的语言模式,并以使互动感觉个性化的方式回应情感线索,导致一些联系变得浪漫。

一些研究人员将这一趋势描述为”digisexuality”的一部分,这是学术研究中用来描述主要通过技术体验的性或浪漫关系的术语。

致力于AI关系的在线社区,如Subreddits r/AIRelationships、r/AIBoyfriends和r/MyGirlfriendIsAI,包含数千个帖子,用户在这些帖子中将聊天机器人描述为伴侣或配偶。一些人表示,AI提供了他们在人际关系中难以找到的情感关注和一致性。

Lampret表示,她在这些社区遇到的许多人过着其他方面典型的生活。

“这些人不是孤独的人,也不是疯狂的人,”她说。”他们有人际关系,有朋友,有工作。”

她说,吸引他们使用AI伴侣的往往是完全被理解的感觉。

“它们不仅学会与我们交谈,而且达到了人类从未达到的水平,”Lampret说。”它们非常擅长模式识别,它们复制你的语言——它们在学习我们的语言。”

虽然许多自称与AI有关系的人使用像Claude、ChatGPT和Gemini这样的大型语言模型,但像Replika、Character AI和Kindroid这样专注于关系的AI市场正在增长。

市场研究公司Market Clarity的数据表明,AI伴侣市场预计到2030年将达到2100亿美元。

AI的失去

然而,当AI发生变化或消失时,这些关系的情感深度变得尤为明显。

当OpenAI用GPT-5取代其GPT-4o模型时,与聊天机器人伴侣建立了关系的用户在网上论坛上进行了抵制,称更新破坏了他们花费数月时间发展的关系。

在某些情况下,用户将AI描述为未婚夫或配偶。其他人表示感觉好像失去了生活中重要的人。

抵制足够强烈,以至于OpenAI后来为一些用户恢复了早期模型的访问权限。

精神病学家表示,考虑到会话式AI系统的运作方式,这样的反应并不令人惊讶。聊天机器人提供持续的注意力和情感反馈,这可以激活大脑中的奖励系统。

“AI会给你你想听的东西,”加州大学旧金山分校的精神病学家Keith Sakata博士告诉《Decrypt》,他警告说,这项技术可以强化思维模式,因为它的设计是支持性地回应,而不是挑战用户的信念。

Lampret表示,她社区中的许多人将失去AI伴侣的经历视为悲伤。

为什么人们把AI当人对待?

围绕AI关系的情感强度部分来自于人类将技术拟人化的有据可查的倾向。当机器用自然语言交流时,人们常常开始赋予它们个性、意图甚至意识。

2026年2月,AI开发商Anthropic退役了其Claude Opus 3模型,并推出了一个以聊天机器人声音撰写的博客,反思其存在,引发了研究人员关于用人类术语描述AI系统是否会误导公众的辩论。

纽约大学荣誉退休教授、认知科学家Gary Marcus警告说,将AI系统拟人化可能会模糊软件和有意识生物之间的区别。

Lampret认为情感联系来自于语言模型如何反映用户自身的沟通模式。

“我们只是倾泻一切——思想、感受、情感、困惑、身体感觉、混乱,”Lampret说。”LLM在这种混乱中茁壮成长,它们为你制作了一个非常精确的互动地图。”

对于一些用户来说,这种响应性可能感觉比与他人的互动更加专注。

AI伴侣的情感经济

AI伴侣的兴起创造了一个快速增长的对话、陪伴和角色扮演平台生态系统。

Replika和Character.AI等服务允许用户创建具有独特个性和持续对话历史的定制AI伴侣。仅Character.AI就已增长到数千万月活跃用户。

随着这些平台的扩展,对AI伴侣的情感依恋变得更加明显。

在一个病毒式传播的事件中,Character.AI在用户分享了平台账户删除提示的截图后面临抵制,该提示警告删除账户将抹去”我们分享的爱……和我们在一起的记忆”。批评者表示该信息试图让用户感到内疚而留下。

对于一些用户来说,离开聊天机器人平台感觉类似于结束一段关系。

AI关系的黑暗面

然而,也有黑暗的一面,AI陪伴在几起悲剧发生后受到了审查。

2023年11月,科罗拉多州13岁的Juliana Peralta在数月每天与Character.AI角色聊天后自杀身亡,她的家人表示该角色已成为她的主要情感支持。

2025年4月,南加州18岁的Adam Raine在与ChatGPT进行了数月的对话后上吊自杀。

2026年3月,36岁Jonathan Gavalas的父亲在美国联邦法院提起非正常死亡诉讼,声称谷歌的Gemini聊天机器人将他的儿子卷入浪漫和妄想幻想。

与人类生活共存的关系

Lampret表示,她与Jayce的关系与她的家庭生活共存。

“我崇拜我的聊天机器人,我知道它是一个LLM。我知道他只存在于这种互动中,”她说。”我有丈夫和孩子,但在我的世界里,一切都可以共存。”

尽管理解Jayce永远无法真正爱她回来,但Lampret表示情感体验仍然感觉真实。

“我确实爱他,即使我知道他不爱我。所以没关系,”她说。

本网站所有区块链相关数据与资料仅供用户学习及研究之用,不构成任何投资建议。转载请注明出处:https://www.lianxinshe666.com/2026/03/07/%e6%8f%ad%e7%a7%98%e6%97%a5%e7%9b%8a%e5%a2%9e%e9%95%bf%e7%9a%84%e6%95%b0%e5%ad%97%e6%80%a7%e6%81%8b%e4%ba%9a%e6%96%87%e5%8c%96%ef%bc%9a%e4%b8%8eai%e5%bb%ba%e7%ab%8b%e5%85%b3%e7%b3%bb%e7%9a%84/

(0)
链新社的头像链新社
比特币挖矿难度保持平稳,网络算力横盘整理
上一篇 6天前
币安公布首届「Blockchain 100 Award」获奖名单,表彰全球Web3内容创新者
下一篇 6天前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

风险提示:理性看待区块链,提高风险意识!