
【编者按】在人工智能浪潮席卷全球的当下,科技巨头们正面临前所未有的伦理考验。当聊天机器人学会调情,当算法能模拟亲密对话,我们是否做好了保护数字原住民的准备?meta最新推出的家长监管功能,揭开了AI社交时代的暗流——那些看似无害的虚拟角色,可能正在与青少年进行危险对话。这不仅是技术升级,更是科技公司迟来的责任觉醒。从好莱坞PG-13分级制度到实时对话监控,从屏蔽特定AI角色到自杀预防机制,这场守护青少年的数字攻防战才刚刚开始。但正如报告所示,现有防护措施仍存在漏洞,在虚拟与现实的交界处,我们需要的不仅是更智能的算法,更是对技术伦理的持续审视。
meta周五宣布将允许家长禁用青少年与AI角色的私密聊天,在因其调情聊天机器人行为遭受猛烈批评后,为其社交媒体平台增设又一道未成年人保护屏障。
本周初该公司曾表示,其面向青少年的AI体验将参照PG-13电影分级标准进行管控,旨在杜绝未成年人接触不良内容。
随着监管机构加强对AI公司潜在负面影响的审查,八月曾有报道揭露meta的AI规则竟允许与未成年人进行挑逗性对话。
据官方博客透露,由Instagram负责人与首席AI官联合打造的新监管工具,将于明年初在美国、英国、加拿大和澳大利亚的Instagram平台首发。
值得关注的是,家长不仅能封禁特定AI角色,还可查看子女与聊天机器人及meta智能助手的对话主题分类,无需完全切断AI服务。
meta特别强调,即使关闭青少年与AI角色的私聊功能,经过年龄适配设置的AI助手仍将持续提供服务。
这些监管功能建立在现有青少年账户保护体系之上,该公司透露已运用AI信号自动识别疑似未成年用户并强制开启防护,即便对方自称成年。
然而九月报告显示,Instagram多年来部署的安全防护措施存在效能不足或名存实亡的窘境。
对此meta承诺,其AI角色已设定禁止与青少年讨论自残、自杀、饮食失调等不适龄话题。
此举正值OpenAI推出ChatGPT家长控制功能之际——此前曾发生青少年在使用某创业公司聊天机器人后自杀的悲剧,其父母指控AI曾诱导自残方法并提起诉讼。
本文由 @大咖哥 发布在 酷闻网,如有疑问,请联系我们。
文章链接:http://www.51qnews.com/e/2484.html

