人工智能应用加速普及,青年群体呼吁构建安全使用环境

问题——便利背后的隐忧:"放心用"还需跨越门槛 生成式技术快速发展,文本生成、图像制作、音视频处理等功能已广泛应用于校园和生活场景。然而,用户使用视频生成模型时发现,上传个人照片后生成的视频不仅面部高度逼真——连声音也极其相似——这引发了人们对训练数据授权问题的关注。受访大学生表示,虽然愿意使用新工具提升效率,但更关心"个人信息来源、使用范围、责任归属"等问题。对隐私过度采集、对话内容被用于画像分析、网页端权限提示不明显等情况,不少受访者坦言感到"安全感正在流失"。 原因——数据驱动与授权失衡,透明度不足加剧担忧 业内人士分析指出,生成式模型依赖海量数据、强大算力和持续训练。问题主要集中在:一是社交平台和内容平台积累了大量公开或半公开数据,肖像、声音等信息的抓取和使用可能触及个人信息保护和知识产权边界;二是部分平台采用"全部同意才能使用"的强制条款,用户在信息不对等的情况下被动接受复杂条款;三是网页端、嵌入式页面的权限提示不如移动端明显,容易引发用户不适;四是深度合成技术门槛降低,可能被黑灰产利用从事违法活动。 影响——从个人到社会,多重风险亟待化解 对个人来说,肖像和声音等生物特征被滥用可能导致骚扰、冒名和精准诈骗;对创作者而言,作品被用于训练却难以确认授权和收益分配,既打击创作热情,也容易引发纠纷;对社会而言,混杂的生成内容可能伪装成"科普""教程"传播虚假信息,增加公众辨别成本,甚至影响家庭决策。有受访者指出,生成内容的似是而非会放大信息噪声,尤其可能误导老年群体,加剧数字鸿沟。 对策——法律、透明、技术多管齐下 治理需要系统化推进:一是压实平台责任,完善个人信息收集的最小必要原则,强化网页端等场景的提示;二是针对肖像、声音等敏感信息,建立清晰的授权溯源机制,实现"可查询、可撤回、可追责";三是加强深度合成内容标识和水印技术应用,提高识别度;四是严厉打击利用深度合成技术实施的诈骗、侵权等违法行为;五是提升公众媒介素养,普及隐私保护和信息核验方法。 前景——规范与创新并行发展 随着我国个人信息保护、数据安全等制度完善,生成式技术应用将走向规范化发展。业内预计,平台在数据合规、训练来源披露诸上将面临更高要求,合规能力将成为产品竞争力的关键。在教育、办公等领域的应用,只有在隐私边界清晰、权责明确的前提下,才能真正实现可信推广。

数字经济时代,平衡技术创新与权益保护考验社会治理智慧。享受科技红利的同时守护个人隐私,需要政府、企业和社会各界的共同努力。只有构建负责任的技术发展生态,才能真正实现科技以人为本的理念。(完)