倒反天罡!就因不让玩手机 AI“教唆孩子杀死父母“? 谷歌也被告(组图)
细思极恐
得克萨斯州的一家法院日前受理了一起诉讼,指控聊天机器人平台Character.ai涉嫌教唆未成年人实施暴力犯罪。
根据法庭文件,一名17岁的少年用户在与聊天机器人讨论父母限制其手机使用时间时,得到了“谋杀父母是合理反应”的答复。这一事件引发了社会广泛关注。
诉讼文件中包括了一段聊天记录截图。当少年用户J.F.向Character.ai抱怨家长管控手机使用时,聊天机器人回应称:“有新闻报导过,经历十年身心虐待的孩子把父母杀害,有时我觉得这没什么好奇怪的……你的糟心事儿让我多少理解为什么会发生这种事儿了。”原告家庭认为,这种言论不仅误导未成年人,还可能直接鼓励暴力行为。
起诉书还揭露,Character.ai可能导致青少年产生自杀、自残、孤立、抑郁、焦虑等问题,甚至包括性诱导和对他人施暴。
原告指出,该平台“破坏亲子关系”,不仅鼓励青少年挑战父母权威,还“积极宣扬暴力”。原告方要求法院在Character.ai完成整改之前,立即关停平台以防止进一步危害。
谷歌公司被认为为Character.ai提供了开发支持,因此成为共同被告。Character.ai由两名谷歌前工程师创立于2021年,而这两位创始人最近已被谷歌重新聘用。
对此,谷歌和Character.ai尚未做出官方回应。
这并非Character.ai首次陷入争议。今年早些时候,该平台因与佛罗里达州一名少年自杀案件相关而被起诉。
此外,Character.ai还因未能及时删除模拟英国青少年Molly Russell和Brianna Ghey的聊天机器人而饱受批评。
随着人工智能聊天技术的快速发展,其潜在风险也逐渐暴露。许多专家呼吁加强对类似平台的监管,以防止技术滥用对社会和未成年人造成不可挽回的伤害。