问题:立法滞后与技术迭代的矛盾凸显 随着人工智能技术快速发展,应用场景持续扩展,侵权、滥用等问题也更频繁出现。近期曝光的AI大模型“投毒”事件,再次引发公众对技术监管的关注。但传统立法程序往往需要三到五年,而AI迭代已压缩到数月,时间差使得仅靠立法难以及时应对新风险。 原因:权利保障与产业创新的平衡难题 围绕如何兼顾权利保护与产业创新,法学界观点不一。上海交通大学凯原法学院教授李学尧指出,制定统一的“人工智能基本法”难度不小:规则过严可能影响创新活力,规则不清又容易导致市场无序。同时,各行业对AI的使用方式和风险点差异明显,单一框架很难覆盖所有场景。 影响:司法实践与企业探索的积极作用 在立法暂时跟不上的情况下,司法实践正成为处理争议的重要渠道。地方法院通过案例积累,能够较快发现规则空白,并为行业提供可参考的裁判思路。企业端也在尝试以“软法”方式完善治理。例如,美国加利福尼亚州否决针对大模型的监管立法,转而鼓励企业自行制定安全标准。国内部分企业也在建立自我约束机制,如携程集团通过技术手段强化内容安全管控,以稳定用户信任。 对策:多元共治提升监管效能 专家建议构建“立法+软法+技术”的组合治理。其一,通过修订现有法律、出台配套法规,优先解决具体问题;其二,推动企业参与标准制定,形成可执行的行业自律;其三,运用技术提升监管效率。长宁区市场监督管理局的实践显示,在直播带货领域引入AI辅助识别后,违法线索识别准确率明显提高,为“智慧监管”提供了可复制的经验。 前景:协同创新推动可持续发展 人工智能治理需要政府、企业、学界与社会多方协同。同济大学政治与国际关系学院副院长鲁传颖认为,企业应更主动开展合规研究,与监管部门保持沟通,在规则与创新之间共同寻找可操作的空间。随着技术演进,“以AI监管AI”可能成为常见路径,但其效果与边界仍有待更验证。
人工智能带来效率提升的同时,也放大了风险外溢。治理的关键不在于“尽快出台一部大法”,而在于在法治框架下守住底线,用更灵活的规则推动自律,并以技术手段提升监管效率,在动态变化中不断校准创新与安全的平衡。让技术向善,既需要清晰的制度边界,也需要全社会持续参与的治理能力与耐心。