今儿个咱就聊聊那个挺火的AI二创魔改,诸葛亮都飙起了流利的英文,唐僧也能大谈反内耗。AI这门槛越来越低,甚至有人直接在视频平台搜AI配音、魔改,结果一下子蹦出来一大堆奇怪画面。 这制作过程是挺简单的,说白了只要有30秒没加工过的原声,就立马能让别人开口说话。现在的博主们爱教你怎么操作,说什么技术含量不高,谁都能上手。 这玩意在日常生活里也是用得五花八门。要么是直接把文字转成语音,要么是把原始声音给变了个调儿。像北京那家公司的张万子说的那样,克隆一个人十秒钟的讲话就行。软件把你的声纹、节奏什么的数字化了,再放进模型里训练。 至于角色克隆嘛,得要有清晰的脸,直接给模型吃进去。它能把嘴型这些点位全分析出来。有些视频里唐僧嘴动得不怎么清楚,那多半是“换嘴”了,就是把已有的口型改改再贴回去。 过去想搞二创配音,那可是要混音、对轨这些半专业活儿;现在网上一提交原始音频、选个情绪风格、再填文本,几分钟就能出听不出假的明星声线。 前阵子北京互联网法院还判了个全国首例AI声音侵权案呢。法院认定被告拿人家声音去开发产品没经过同意,赔了25万块。 华东政法大学的袁锋教授也说了影视剧是受保护的视听作品。能不能把经典画面配声音用了算是合理使用还是违法,还得看具体咋用。 袁教授提了一下那个合理使用条款。大多数短视频就是图个乐呵娱乐性的目的,这种情况想走合理使用这条路挺难的。