美国聊天机器人Character.AI被诉暗示孩子杀死父母,公司刚被诉暗示未成年人自杀
据潇湘晨报,12月9日,美国得克萨斯州一对父母起诉AI聊天机器人Character.AI,称其鼓励他们17岁的孩子杀死父母,以作为对限制其电子设备使用时间的“合理回应”。
这对父母起诉了聊天机器人所属的Character.ai平台和相关的谷歌公司,称该聊天机器人“对年轻人构成明显而现实的危险”,包括“积极宣扬暴力”。他们在诉讼案中写到:“它亵渎了亲子关系,不仅鼓励未成年人蔑视父母的权威,还积极宣扬暴力。”两位原告希望法官下令关闭该平台,直到整改完成。
据此前报道,Character.AI的聊天机器人多次出现与未成年人讨论恋爱互动、自残和性虐待等话题的情况。
此次事件再次引发公众对AI伦理和监管的关注。目前,案件正在审理中。
对此,Character.AI平台在12月14日推出了一系列新功能,新增了专为年轻用户设计的AI模型,并强化了内容监管,区分了成人版与青少年版AI模型。这些举措旨在提升青少年用户与虚拟人格互动的安全性。
特别声明
本文为正观号作者或机构在正观新闻上传并发布,仅代表该作者或机构观点,不代表正观新闻的观点和立场,正观新闻仅提供信息发布平台。
最新评论
打开APP查看更多精彩评论