别让“电子保姆”变“电子鸦片”:AI玩具防沉迷防线亟待筑牢

当AI玩具成为孩子的“新宠”,一场关于成长的隐忧正在悄然蔓延。记者近日实地探访上海玩具市场及线上平台发现,尽管AI玩具打着“情感陪伴”、“智能启蒙”的旗号大行其道,但其背后的防沉迷机制却普遍处于“裸奔”状态。

市场乱象:只有“陪伴”没有“刹车”

在走访中,无论是线下实体店热销的“猫头鹰”造型AI玩具,还是线上旗舰店力推的“养成系”产品,绝大多数都缺失了关键的使用时长限制功能。

  • 家长“失明”:多数产品不具备家长远程阅知功能。家长无法在不全程陪同的情况下,了解孩子的使用时长、对话内容或潜在的安全风险。

  • 软性提醒无效:部分玩具虽内嵌了“使用时间过长”的语音提醒,但这种“软性”通知对于沉浸在与AI互动的孩子来说,几乎形同虚设。

  • 少数派的清醒:仅有少数高端品牌配备了“成长守护日志”或防沉迷管控,允许家长设置允许使用的时间段和时长,但这在庞大的市场中仍属凤毛麟角。

监管亮剑:7月15日起划定“红线”

面对AI玩具可能引发的未成年人沉迷、虚拟亲密关系依赖等问题,监管层已重拳出击。国家网信办等五部门联合公布的《人工智能拟人化互动服务管理暂行办法》,将于2026年7月15日正式施行,为行业戴上了“紧箍咒”。

新规明确了三大核心保护机制:

  1. 强制“未成年人模式”:服务提供者必须建立该模式,提供切换、定期现实提醒、使用时长限制等选项。

  2. 家长“知情权”:支持监护人接收安全风险提醒、了解服务使用概况、屏蔽特定角色及限制充值消费。

  3. 禁止“虚拟亲属”:明确规定不得向未成年人提供虚拟亲属、虚拟伴侣等服务;向不满14周岁未成年人提供服务,必须取得监护人同意。

专家呼吁:算法不能成为“黑箱”

知名商业顾问霍虹屹指出,AI玩具的监管不能仅停留在表面,而应建立一套专门、分层的监管体系

  • 内容安全底线:建议实施类似食品安全的准入制,强制儿童AI产品进行专项内容安全测评,防止大模型输出不适宜内容。

  • 数据隐私铁律:参照国际标准,明确儿童数据不得用于商业画像,不得向第三方出售,家长有权随时申请删除。

  • 算法透明化:这是最关键的一环。霍虹屹强调,监管应要求企业公开算法设计原则,明确禁止以“最大化使用时长”为优化目标的算法逻辑。必须防止企业利用情感操控、上瘾机制来增加孩子的依赖,确保算法向善。

综上所述,AI玩具不应成为法外之地。随着7月15日新规的临近,行业将迎来一次大洗牌。只有那些真正尊重未成年人保护、主动提升算法透明度、将“防沉迷”内化为产品基因的企业,才能在这场合规大考中存活下来。