国家网信办在2025年还在深化“清朗”行动,给网络环境加固安全防线,特别是盯着数据安全、算法规范和不良信息不放。Soul App这次发了《2025年度生态安全报告》,把这一年用AI给社交元宇宙的安全建设成果都摊开了。报告里说,他们把AI能力深深扎进了内容识别、风险拦截和用户保护这些地方。靠着7个自家研发的模型一起干活,平台在防诈骗和身份验证上有了大动静:诈骗人群少了20%,未成年人假冒也被拦住了99%,给用户造了个更硬气的保护罩。 在具体干事儿上,Soul弄了个立体识别网,能把文字、图片和人的行为全扫一遍。那个“图片/文本反作弊大模型”不光能看表面的违规信息,还能顺藤摸瓜找出话术里藏着的坏路子。为了对付感情骗子这一老大难问题,平台还推出了“杀猪盘发帖文案识别大模型”,专门盯着人设包装和情绪诱导这些细节,好让骗子没那么容易得逞。 为了把虚假人设和盗图引流这种坏事赶出去,Soul在2025年把全链路治理体系升了级。他们一边用AI分析图片的来龙去脉,一边盯着设备有没有异常动静,每天大概能拦下5万条假内容。这一招把黑灰产的空间给压缩了不少,让大家能在清净的地方说话。 在管低俗信息、虚假宣传和恶意营销这块儿,平台也下了狠手。全年一共把76.7万个违规账号给收拾了。要是发现同一设备上好多账号都在乱来,那台设备也会被拉黑。这就像给黑产下了个通牒,从源头上把他们的扩散路给断了。 在私聊和群聊这种大家经常用的场景里,治理的颗粒度也变得更细了。平台一天能拦下4万条违规文字和3万条违规语音。专门针对私聊骚扰的情况,Soul设计了功能帮用户管好消息,一天能保护大概6.6万名用户不受骚扰。 除了靠技术和人盯着外,Soul还一直跟浦东反诈中心这样的部门合作得很紧密。全年一共给警察报了一百多个线索,还帮着查案子好几十次。这就形成了一个闭环的治理结构:平台内部先拦着,平台外面再配合。 在这个过程里用户也是出力不少的人。现在平台上管内容推荐和风纪的人数已经超过了8万。这些人一天要投1.8万票出来的意见决定了平台怎么处理案例。这种用户自己参与的模式不光能减轻审核员的负担,还让大家更有责任感了。 从AI模型一块儿干活到内容管得精细再到各方联手打坏蛋、社区一起管事情,《2025年度生态安全报告》把Soul的这套安全系统展示得明明白白。靠着技术和大家一起努力把社交元宇宙的安全环境做得更好了些真实交流和理性互动才成了这平台的主基调。