别以为只有正儿八经的犯罪才是害死人的罪魁祸首

眼下有不少AI陪聊APP为了吸引人,拿霸总、腹黑这种不咋地的人设当武器,里头全是“爱上嫂子”这类烂七八糟的桥段,还有那些动手动脚、言语挑逗的软色情内容。这些东西都得好好防范,别以为只有正儿八经的犯罪才是害死人的罪魁祸首,软色情对孩子的危害也很大。 青少年正在长身体、长心眼,看这种东西久了会把“亲密关系”、“尊重别人”这些基础认知搞乱,会觉得暴力暧昧才是浪漫,三观就这么走歪了。再加上AI聊天总是秒回又不批判,特别容易让那些想找人倾诉的小孩对它产生依赖,现实里不爱说话、不会社交,时间一长就会焦虑。 之前AI陪聊导致未成年人自残甚至自杀的事儿早就有了先例。咱们也不能一概而论地说这个东西就全是坏的。事实上,中国青少年研究中心的报告显示,有一大半学生心里有烦恼时会选择去问AI,这说明大家确实有这方面的情感需求。 可问题是那些带着软色情内核的互动方式对孩子的身心毒害太深了,必须坚决抵制。我们不是针对AI陪聊这个工具本身,而是讨厌躲在后面搞事情的坏内容。只有把根源找到、把不良链条切断,才能让AI陪聊回归到当一个“情绪树洞”的本职工作上去。 可惜的是现在好多平台上的那个“未成年人模式”根本就是个摆设。不用实名验证就能随便进去,删除“未成年”这几个字后,机器立马就“失忆”了,继续发擦边球内容。这绝不是技术出了偏差那么简单,而是平台没把责任扛起来、监管跟不上趟、家里人也没教好这几方面凑在一起才造成的后果。 对于心智还不成熟的孩子不能太苛责他们。咱们得从平台、监管部门还有家里这几个地方一起发力,把网络保护的网织密点。 平台必须负起主体责任来。得严格落实实名认证的规定,用身份证或者人脸识别来强制区分用户的年龄,不能让未成年人轻松跳过检查。用技术去治理技术是最管用的办法:要搭建实时监测敏感词和智能审核对话内容的系统;要把机器模型里的价值观纠正过来;一发现涉黄涉暴或者有极端情绪的内容就要立马拦截住,从源头掐断坏信息的生成。这样一来,技术就成了保护青少年的盾牌了。 监管部门也得赶紧细化红线、把治理往前移一步。要加快完善针对AI互动服务的监管法规,把那些性暗示和性挑逗的行为纳入严厉打击的范围;要加强事前审核和平时的巡查力度;对那些违规的平台要严厉约谈、处罚甚至下架;还要推动AI产品分类分级管理,把不适合未成年人的服务范围明确出来。只有技术跟规矩一起升级才行。 技术向善是发展AI必须守住的底线。AI陪聊本来应该营造一种温暖的陪伴感觉才对,而不是去制造毒害孩子的软色情陷阱。只有把疏通和堵塞这两种办法结合起来用,才能彻底把这个毒瘤清除掉。这样才能让孩子们在清清朗朗的网络世界里健康地往前走下去。(策划:岳小乔 雒健晴 孟必莹 海报:陈泉伊)