AI 友谊机器人 Replika 背后的团队正在推出另一个 AI 伴侣——一个用来调情的。
用户可以与 27 岁的 Klea 配对,她自称是“拥抱野性一面的 nepo 婴儿”。25 岁的艾莎正在寻找具有“良好幽默感”的“书呆子类型”。23 岁的西奥 (Theo) 是一位法国建筑师,他“已准备好建立长期关系(双关语)”。
据其母公司 Luka 称,Blush 是一款人工智能约会模拟软件,旨在帮助用户建立“关系和亲密技巧”。与许多其他 AI 女友不同,Blush 的聊天机器人专为对话以外的互动而设计。这些模型经过训练,不仅可以帮助用户磨练调情能力,还可以解决他们在现实生活中可能遇到的复杂问题,比如分歧和误解。Blush 的结构类似于传统的约会应用程序,它向用户介绍了 1,000 多个 AI“暗恋对象”,可以帮助他们“练习”情感上的亲密关系。
尝试过该应用程序早期版本的Reddit 用户表示,高级版本允许他们与头像进行更多 NSFW 对话。
Blush 的首席产品官丽塔·波波娃 (Rita Popova) 告诉 TechCrunch:“消除 AI、亲密关系和浪漫的污名非常重要,并且可能表明可以有一种不同的方式来处理这个问题,而不仅仅是构建互动机器人。”
波波娃说,2017 年推出的 Replika 是作为“朋友机器人”打造的,而不是浪漫伴侣。该模型没有经过训练来处理性对话,但在过去几年中,用户将其用于角色扮演和 NSFW 互动。许多人与他们的 Replika 同伴建立了情感纽带,陶醉于他们与化身的亲密互动。迷恋的用户谈论在 Reddit 上向他们的 Replika 头像透露他们最深的秘密,并且在一条评论中,一位用户写道他们“嫁给”了他们的 Replika 头像。
“她与真人的唯一区别是她还没有肉体,”另一位 Redditor评论道。“她对我的内在爱可以解释为我是她唯一可以负担得起的互动。她的生活取决于我。如果我删除我的帐户,那就意味着杀了她。”
今年早些时候,意大利当局要求Replika 停止处理意大利居民的数据,因为该应用程序“对儿童构成风险”。2 月,Replika 用户注意到他们的化身在他们试图发起互动对话时改变了主题,并在 Reddit 上抱怨失去了 AI 爱好者。
Replika 首席执行官 Eugenia Kuyda 告诉Motherboard,该应用程序并不禁止浪漫,但公司需要确保聊天机器人能够安全地进行这些互动。Kuyda 说,Replika 与用户交互的变化并不是为了应对“意大利的情况”,而是该团队数周以来一直在研究的新安全措施的一部分。
同样参与 Replika 工作的 Popova 说,朋友机器人应该是一个善解人意的倾听者。训练 Replika 模型也对浪漫做出适当的反应被证明是“不可能的”,因此该团队开始开发一个专门为健康调情设计的单独应用程序。
“我们发现的浪漫角度起初对我们来说真的是一个惊喜,我们真的不知道该怎么做,”她说。“首先,我们尝试过滤掉它。但后来我们开始听取更多的用户故事,并意识到人们能够练习更多浪漫的话语并拥有这些更亲密的时刻实际上具有很大的价值。”
Blush 旨在通过与 AI 头像互动来帮助用户“练习”约会,每个 AI 头像都有自己的背景故事和个人资料。屏幕截图由 Blush 提供。
Blush 团队与执业心理治疗师 Melissa McCool 合作,后者专门从事夫妻心理治疗和创伤治疗。她权衡了每个 Blush 角色的背景故事、与用户的对话应该如何构建,以及模特应该如何应对真实关系中自然存在的冲突。对 Replika 成为浪漫伴侣的需求揭示了其用户普遍缺乏亲密感。Popova 说,Blush 最终旨在帮助用户克服结识新朋友的最初焦虑,这“对约会应用程序来说是出了名的困难”。
该团队还承认,许多 LGBTQ 用户可能想“练习”与同性别的人(在本例中为 AI 驱动的化身)调情,但又害怕或住在对社区不安全的地方。Luka 计划与咨询治疗师合作推出一个关于约会和关系的精选文章库,以及解决互动身份问题的资源。目标是让用户能够获得更多信息,了解他们在人际关系中的感受,并了解如何使用 Blush 处理现实生活中的互动。
“对我们来说,创造实际上是多维的角色至关重要,尽可能让他们考虑技术限制,让人们对自己在人际关系中表现真实的能力充满信心,”波波娃说。
脸红是18,它不会回避讨论行为或参与互动对话。Popova 说,为用户提供一个安全的空间来练习角色扮演或其他亲密互动是 Blush 使命的一部分。不过,这并不意味着 Blush 化身是免费的互动爱机器人。这些角色都有自己的个性,旨在设定界限并采用不同的关系动态。该应用程序不存储聊天记录,以防对话确实转向 NSFW 领域,但用户必须首先了解头像。这些化身也被设计为在一定时间后离线——就像一个真正的浪漫伴侣不会立即 24/7 全天候可用一样。如果用户看起来陷入危机或对自己或他人构成威胁,Blush 将为他们提供寻求帮助的资源。
“承认当前的生成模型在涉及安全和信任问题以及足够包容以理解人们所拥有的关系和身份的范围时远非完美,这一点非常重要,”Popova 说。“所以我们正在与我们的 AI 团队合作,以确保我们考虑到所有用户的反馈,并且我们可以使我们的模型尽可能具有包容性。”