4月10日,五部门联合公布了《人工智能拟人化互动服务管理暂行办法》。该办法规定,提供拟人化互动服务时不得*成可能引发未成年人模仿不安全行为、产*极端情绪或诱导不良嗜好的内容。同时,禁止向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务;若向不满十四周岁的未成年人提供其他拟人化互动服务,需获得其父母或其他监护人的同意。
拟人化互动服务提供者应建立未成年人模式,*括提供未成年人模式切换、定期现实提醒、使用时长限制等个性化安全设置选项。针对不同年龄段未成年人的保护需求,支持监护人接收安全风险提醒、了解未成年人服务使用概况、屏蔽特定角色以及限制充值消费等功能。
此外,拟人化互动服务提供者在保护用户隐私权和个人信息的前提下,需采取有效措施识别未成年人用户身份。一旦识别为未成年人用户,相关服务应切换至未成年人模式或按国家有关规定采取其他措施,并提供相应申诉渠道。处理不满十四周岁未成年人个人信息时,也需取得其父母或其他监护人的同意。
根据《暂行办法》,拟人化互动服务提供者还需自行或委托专业机构对其处理未成年人个人信息遵守法律、行政法规的情况进行合规审计。该办法将于2026年7月15日起施行。


