由于担心人工智能与未成年人互动,人工智能公司 Character.AI 将在 11 月 25 日之前终止对 18 岁以下用户的开放式聊天机器人访问,以增强安全性。逐步淘汰从每日两小时限制开始,逐渐减少至零。该公司将实施多种年龄验证方法来执行这一限制。其中包括内部开发的内部工具和第三方解决方案,例如 Persona。如果这些初步方法证明不够,Character.AI 可能会诉诸面部识别技术和身份证件检查来确认用户至少年满 18 岁。这一政策转变是对监管机构和家长的意见的回应。它与正在进行的旨在减轻青少年参与人工智能对话相关的心理健康风险的举措相一致。监管机构对与聊天机器人长时间或未经过滤的互动对年轻用户潜在的心理影响表示担忧。
Character.AI 此前曾推出各种保护未成年人的保障措施。这些措施包括家长洞察工具,为监护人提供监控选项、过滤字符以避免不当内容、限制浪漫或亲密对话,以及提醒用户在平台上花费的时间的通知。尽管采取了这些措施,但 18 岁以下用户群在推出后仍经历了明显下降。展望未来,Character.AI 正在开发一个为青少年量身定制的替代平台。这项新功能将使 18 岁以下的用户能够生成视频、撰写故事以及制作以人工智能角色为特色的直播。但是,它将排除任何形式的开放式对话交互,以维持聊天机器人使用的既定界限。





