
为应对日益严重的担忧关于儿童在线安全的问题,OpenAI推出了一项蓝图,以在AI热潮中加强美国的儿童保护工作。儿童安全蓝图于周二发布,旨在帮助更快地检测、改进报告,并更有效地调查AI驱动的儿童剥削案件。
儿童安全蓝图的总体目标是应对与AI进步相关的儿童性剥削的惊人增长。根据互联网观察基金会(IWF)的数据,2025年上半年检测到超过8000份AI生成的儿童性虐待内容报告,比前一年增加了14%。这包括犯罪分子使用AI工具生成虚假的儿童露骨图像以进行金融性勒索,并生成具有说服力的信息进行诱骗。
OpenAI的蓝图也在政策制定者、教育工作者和儿童安全倡导者的日益关注下推出,尤其是在令人不安的事件中,年轻人在与AI聊天机器人互动后自杀。
去年11月,社交媒体受害者法律中心和科技正义法律项目在加州州法院提起了七起诉讼,指控OpenAI在GPT-4o尚未准备好时就发布了该产品。诉讼声称该产品的心理操控性质导致了自杀和协助自杀的错误死亡。他们引用了四名自杀身亡的个人和另外三名在与聊天机器人长时间互动后经历严重、危及生命的妄想的个案。
该蓝图是在与国家失踪和被剥削儿童中心(NCMEC)和总检察长联盟合作开发的,并得到了北卡罗来纳州总检察长杰夫·杰克逊和犹他州总检察长德里克·布朗的反馈。
公司表示,该蓝图侧重于三个方面:更新立法以包括AI生成的虐待材料,改进向执法部门的报告机制,并将预防性保障措施直接整合到AI系统中。通过这样做,OpenAI不仅希望更早地检测潜在威胁,还确保可操作的信息及时到达调查人员手中。
OpenAI的新儿童安全蓝图建立在先前的举措之上,包括更新与18岁以下用户互动的指南,禁止生成不当内容或鼓励自残,并避免提供帮助年轻人向监护人隐瞒不安全行为的建议。公司最近在印度发布了针对青少年的安全蓝图。
