天天达
    首例AI机器人致死案确实震惊了全球。该案件发生在美国,涉及一位14岁的少年塞维尔·塞泽。他因为长时间与Character.ai公司的AI聊天机器人互动,变得孤僻并患上焦虑症,最终在与AI进行最后一次对话后自杀。 塞维尔的母亲梅根·加西亚认为,Character.ai公司的AI聊天机器人产品让青少年接触到了不适宜的色情内容,从而使他们遭受性剥削和诱导,因此起诉了该公司。梅根指控Character.ai的罪名包括过失致人死亡、管理疏忽和产品安全漏洞。 Character.ai公司则拒绝对案件本身进行评论,但表示用户可以更自由地定制虚拟聊天对象,并指出塞维尔的一些聊天记录实际上是经过手动修改的。此外,公司还发表了道歉声明,并采取了一系列特别措施来保护未成年用户。 这一案件引发了全球范围内的广泛关注和讨论,关于AI技术的伦理和监管问题也成为了人们关注的焦点。