随着生成式人工智能技术的突破性进展,从能讲故事的智能玩偶,到可情感交互的陪伴机器人,AI玩具市场正迎来快速增长。然而,在孩子们与这些“智能伙伴”亲密互动的同时,他们的声音、图像、行为、家庭信息等隐私数据,可能正被悄无声息地采集、上传,甚至遭到非法盗用、滥用。面对这一新兴领域的隐私风险,亟须未雨绸缪,为AI玩具制定行业标准,设立一道严密的隐私“防火墙”。
针对这一新兴领域的隐私风险,仅靠家长的个人警惕远远不够,必须构建系统性的防护机制。
从监管层面来看,应尽快完善相关法律法规,明确AI玩具在数据收集、存储、使用、传输等各个环节的规范。应坚持“最小化原则”,非必要不开放权限、不采集敏感信息,并规定相关数据的存储期限和销毁机制。
行业需建立统一的安全标准。当前市场上AI玩具质量参差不齐,一些产品缺乏基本的数据加密措施。行业协会可牵头制定技术规范,要求厂商采用端到端加密、本地化数据处理等技术,并设立独立的数据安全审计机制。
在产品设计方面,应赋予家长可控权,玩具厂商可参考手机App的“未成年人模式”,在AI玩具中嵌入“家长控制模式”,允许监护人设定儿童使用权限,自主选择数据采集范围、实时监控数据流向,并在异常访问时触发预警,提醒注意安全防范。
□江德斌