大牛史蒂夫道恩斯吐槽了,主要是对着ai 语音克隆技术表示强烈不满

这回配音圈的大牛史蒂夫·道恩斯出来吐槽了,主要是对着AI语音克隆技术表示强烈不满。大家都知道,声音现在特别容易被AI给克隆出来,以前只有实验室里能做的事儿,现在好多人都能搞了。可问题也随之而来,毕竟这玩意儿要是乱用,谁也不知道会搞出什么乱子。道恩斯就说,现在有不少人在网上乱搞,没经过他本人同意就把他的声音拿过去配音。他觉得这种事情太危险了,因为现在的合成技术特别逼真,一般人根本听不出真假。虽然现在大部分都是粉丝自己玩玩,但如果被坏人利用去做虚假信息传播、商业误导甚至诈骗,那对公众的信任和社会秩序伤害就大了。道恩斯说这已经触碰到他作为声音艺术家的底线了。不光是道恩斯一个人这么说,很多公众人物还有行业组织最近都在发声,因为Deepfake和语音克隆技术现在太成熟了。国际机构的报告显示,2023年基于AI语音合成的诈骗案在全球各地都在增多,门槛变低了成本也跟着降了下来。其实只要有几分钟的原声素材,现在的主流系统就能模仿出目标的音色、语调还有情感表达。虽然这项技术在无障碍阅读、娱乐创作这些方面挺好的,但是滥用起来让人头疼。一方面声音是人格权的一部分,到底能不能随便复制还得法律来定;另一方面虚假的音频到处乱飞会让舆论更乱。 咱们国家的《网络安全法》《个人信息保护法》早就定了规矩,不能用信息技术伪造别人的身份。学术界和产业界也在想办法弄数字溯源和认证机制,想给合成的内容加上标识让大家好分辨。不过全球范围内针对AI语音克隆的规制还在摸索阶段呢。专家说要建个好的伦理框架得靠大家一起努力:技术开发者得在设计里加入伦理思想;平台方得加强审核;行业组织可以定标准;立法和监管机构得赶紧回应新技术的挑战。道恩斯这次发声不仅仅是为了维护自己的权益,更是在呼吁大家重视数字身份保护和技术伦理建设的事儿。其实技术创新跟人文伦理不是你死我活的对头关系,而是在发展中找平衡的过程。想让技术向善发展还得靠完善法规、加强自律、提高公众数字素养和形成共识才行。只有这样我们才能真正驾驭工具而不是被工具牵着鼻子走,最终造出一个真实可信又负责任的人机共生的未来。