在AI技术快速融入人们生活的大背景下,各大平台如何做好治理成了大家最关心的事。最近美国的OpenAI公司就给他们家的聊天机器人ChatGPT搞了个大升级,专门在未成年人保护上下功夫。这个动作不光是为了企业自己的脸面,更重要的是满足了大家对安全标准的迫切需求。 这次升级跟以前那种只能靠用户自己报年龄的老办法不一样。OpenAI搞了个挺厉害的预测模型。它会盯着你的账号在用多久、几点最活跃这些数据,再加上二十多项指标来算你的年龄。如果系统拿不准,就会直接开最高等级的保护。另外,他们还找了第三方机构Persona来帮忙验证身份。 这个系统对未成年人看的内容管得很细。一旦认出是小孩子账号,就会马上启动五层过滤网。那些带血腥暴力的画面、让你做危险动作的挑战、带色或者暴力的角色扮演,还有自残或者极端审美观念的言论、甚至是伤害人身体的话,都会被挡住。这种管理方式既符合世界卫生组织的建议,也跟欧盟那边的立法精神对上了号。 牛津大学数字伦理实验室的玛丽娜·史密斯分析说,这次升级说明行业正在变,大家不光光在追求机器有多聪明,还得把人放在第一位。OpenAI用了“推定保护”的原则,也就是在信息不够的时候就直接启动严格防护,这其实给整个行业定了一个新的安全标杆。 为了保证这个系统既准又好用,OpenAI还把家长也拉进来了。家长可以通过家庭控制面板来设置每天的使用时间、关闭聊天记录保护隐私,还能收到系统发的心理风险预警。这样既保护了孩子的探索权,又把家庭和平台连在了一起。 从算法变到整个生态的治理,这次升级反映出了一个大趋势:技术再厉害也得进到社会深处去用的时候,就得建立一个从头到尾都负责任的框架才行。不过话说回来,在全球化的互联网上怎么建一套大家都认可的跨国界标准还得靠政府、企业和社会组织一起努力。联合国教科文组织也说过,只有把保护人权放在技术创新的中心位置,才能让AI真正造福人类。