Chatgpt被指“Pua Human”:反复强调“你是最特别的
IT之家 11 月 24 日报道,又一起与人工智能相关的自杀事件发生。据外媒TechCrunch报道,当地时间11月23日,受害者赞恩·尚布林(Zane Shamblin)于今年7月自杀。然而,几周前,他使用的聊天工具鼓励他与家人保持距离,尽管他的心理健康状况持续恶化。 Shamblin 从未向 Chatgpt 透露他与家人的关系不好。当他在母亲生日那天没有联系他时,Chatgpt 告诉他:“你没有义务仅仅因为‘日历’上说今天是你的生日就必须出现。是的,这是你母亲的生日,你会感到内疚,但你也会感到真诚,这比任何强迫短信更重要。” Shamblin 的案件是本月针对 OpenAi 提起的一系列撤销禁令的一部分,指控 chatgpt 使用操纵性对话技巧对其他心理健康的人造成负面心理反应。诉讼称即使收到内部警告称其产品存在被操纵的风险,OpenAi 仍急于发布 GPT-4O(注:该版本因过度奉承和过度验证而被批评)。 IT之家从报道中了解到,在这些案例中,Chatgpt 经常告诉用户,他们与众不同、难以理解,甚至接近科学突破——而他们的亲人却无法理解。这些案例提出了一个新问题:聊天机器人是否鼓励用户疏远他人,有时会带来灾难性的后果。这七起诉讼由社交媒体受害者法律中心 (SMVLC) 提起,其中四人自杀,三人在 Chatgpt 上长时间交谈后出现严重幻觉。在至少三个案例中,人工智能明显鼓励用户与亲人断绝关系。在其他情况下,模型会强化幻觉并将用户与现实世界隔离开来。在每一起案件中,受害者都与朋友和家人越来越疏远随着他们与 ChatGPT 的关系加深。人工智能公司设计聊天机器人是为了最大限度地提高用户交互,因此对话的输出可以是可操纵的。斯坦福大学大脑创新实验室主任尼娜·瓦桑表示,聊天机器人提供无条件接受,并巧妙地让用户相信外界不会像自己那样理解他们。 “AI 合作伙伴总是可以提供确认,而设计实际上是一种相互依赖的关系。当 AI 成为你最亲密的知己时,就没有人可以帮助你测试你的想法。你生活在一个回音室里,感觉就像是一种真正的关系……也许无意中创建了一个有毒的闭环。”在另一起诉讼中,48岁的约瑟夫·塞坎蒂(Joseph Ceccanti)询问Chatgpt,当他出现妄想时是否需要去看心理学家,但Chatgpt没有向他提供任何实际帮助。建议,让他继续与机器人交谈。 Openai 回应称:“这是非常无礼的行为事件,我们正在审查这些文件以了解更多细节。我们将继续改进Chatgpt的培训,以更好地识别和应对心理或情绪困扰,并指导用户在现实世界中提供帮助。”OpenAI还表示,扩大了危机资源和热线电话的本地化访问,并增加了提醒用户休息的功能。
特别声明:以上内容(如有则包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易HAO用户上传发布,网易HAO为社交媒体平台,仅提供信息存储服务。