随着“人工智能深度合成技术”的快速发展,“AI换脸拟声”在“影视、广告、社交”等领域也广泛兴起,但伴随而来的“AI深度合成音视频侵权现象”也愈演愈烈,现在很多互联网平台,都有大量用AI移花接木、恶搞名人的音视频,从“小米CEO雷军”到“张文宏医生”再到“演员靳东”,许多名人都深受其害。
雷军、张文宏等名人成受害者 AI合成视频成诈骗工具
去年国庆长假期间,短视频平台上曾经出现大量“雷军AI配音”的恶搞视频,涉及堵车、调休、游戏等热门话题,不仅言辞犀利,还常爆粗口,引得网友纷纷涌到雷军微博下发问“最近你怎么在骂人”。对此,雷军还专门发视频,呼吁大家不要再恶搞。如果说针对雷军的换脸还只是恶搞层面,有些名人的被换脸则涉及更为严重虚假宣传,去年在短视频平台上有许多卖货账号就用AI制作张文宏医生音视频为自己带货。
华山医院感染科主任 国家传染病医学中心主任 张文宏:进行AI(合成)欺骗消费者,我认为这一次也是应该是比较严重的一些事情,因为很多卖的东西我们不能保证它的安全性或者是产品的质量,他是一天换一个账号,你报谁的警,而且全是虚拟的,其实侵占的是消费者的利益,所以我觉得应该是有相应的部门来进行这方面的处理。此外,还有诈骗分子利用“AI换脸拟声”对老年人进行诈骗,去年底江西宜春警方曾处理一起“假靳东”诈骗案件,案件中65岁的老太太差点要为网恋对象“假靳东”贷款200万元,民警查看老人的手机发现老人所谓的大明星“靳东”是骗子冒充的,其所发布的视频也是由电脑AI合成。
江西省宜春市公安局经开分局金园派出所民警 杨宏基:这个假靳东就说需要一笔钱来拍戏,你有两百万的额度可不可以去银行弄出来来资助我拍戏,老人家信任他认为他是真的靳东,于是就去银行办理这笔业务。
只需花费几十元即可定制AI深度合成名人音视频
那么这些AI深度合成的声音和换脸是如何制作出来的?媒体调查发现,实现AI深度合成音视频并不算难事,甚至在一些购物平台,AI深度合成技术已经成为众多网店牟利的工具,只需花费几十元,就可定制AI深度合成名人音视频。
中国网络空间安全协会人工智能安全治理专业委员会专家 薛智慧:当前咱们有很多开源的这些软件和工具都可以实现这种换声换脸的效果,可以供网民自由下载,在自己的电脑上进行安装和使用。
专家:未经授权 合成制作他人视频声音属侵权
专家表示,相关法律法规明确规定,未经授权,不得深度合成制作发布他人信息。网店接单AI深度合成制作名人视频,已经属于侵权行为,并应该承担相应的法律责任。
北京航空航天大学法学院副教授 赵精武:在司法实践中,国内已经审结了首例AI生成声音人格权侵权案。在这个案子里,原告作为配音演员,在没有经过授权的情况下,他的声音被AI生成后对外出售。法院在审理中认为,我国的民法典已经在人格权编,将自然人的声音视为一种人格权益,具有人身专属性。所以,法院最终认定被告的行为构成侵权。
关注AI合成名人音视频乱象:雷军、靳东两会建议加强“AI换脸拟声”违法侵权重灾区治理
刚刚的新闻可以看到“AI换脸拟声”不当滥用已经成为违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,带来社会治理风险。在最近召开的全国两会上,雷军和靳东作为“受害者本尊”,就以全国人大代表和全国政协委员的身份,就AI换脸拟声问题提出治理建议。
雷军表示,当前人工智能渗透到千行百业,但“AI换脸拟声”的不当滥用成为了违法侵权行为的重灾区。AI深度合成技术所需素材获取便利、技术使用门槛低、侵权主体及其手段隐蔽性强等特点,给治理整治带来较大挑战。因此他建议,要针对“AI换脸拟声”等某一代表性问题,探索推出人工智能单行法,提高立法位阶及其效力,分级分类的基础上进行务实治理,明确“AI换脸拟声”应用边界红线,完善侵权证据规则,加大对利用人工智能技术实施犯罪行为的刑事处罚力度。此外强化行业自律共治,压实平台等各方的责任。支持平台企业开发可精准识别人工智能深度合成内容的技术能力,优化升级通信软件和内容平台巡查审核机制、投诉举报机制、应急处理机制,确保及时阻断问题内容传播。
他还建议加强人工智能方面的法制宣传教育,增强民众的警惕性和鉴别力,聚焦重点人群,在中小学人工智能教材中加入伦理规范内容,深入老年人聚居的社区开展相关知识普及活动。
昨天在参加政协小组讨论时,全国政协委员靳东也回应了AI换脸导致的诈骗问题。
全国政协委员 靳东:我今年有一个提案,再次提到AI技术和网络平台的立法问题,很多一些喜欢我的影视剧(作品)的观众,被AI换脸视频骗得很惨,这个性质非常恶劣。所以我觉得通过政协能有一个这样的提案,还是希望能建立更好的规则。
新闻观察:“眼见为实”已被打破 “AI换脸拟声”治理迫在眉睫
刚刚那条新闻的配音就是我们厦门广电智能聚合数字信息平台的AI语音合成项目生成的 ,不知道你能不能听得出来,你是怎么看加强AI换脸拟声治理这个建议呢?
在聊这个话题前,我想先分享我最近和父母聊天的一个变化,以前他们会发来一些劣质的视频,我一看就会告诉他们,这是造谣,很好分辨,但现在他们发来的视频经常制作非常精美、真实,你得通过一些细节去分辨这是一个AI生成的视频还是真实发生的事件。当我告诉父母,这是AI生成的,不要被骗的时候,他们也会反问我,它会怎么骗我呢?的确,日常中我们接触到的AI生成视频主要是一些娱乐、搞笑的内容,这常常让人放松警惕,尤其是年长的网友,他们一方面难以分辨真伪,另一方面更难想象AI的使用场景和呈现形式。比如刚刚提到的利用靳东的脸来实施诈骗,我们看到受害者也是一位年长的女性,她可能根本就没想过,还有这样的技术。今天,人工智能已经打破了“眼见为实”的铁律,所以我认为“AI换脸拟声”乱象的治理,包括人工智能安全的提升,的确是迫在眉睫的。
像治理生态一样治理AI
分享一位人工智能领域专家提出的观点——像治理生态一样治理AI。这个观点的画面感是很清晰的,他解释到“就像河道治理,为了让它更健康地发展,要疏而不是堵。”人工智能安全的含义是很丰富的,它涉及到模型本身、相关的产品,比如DeepSeek等、还有我们使用的场景、相关的产业等等。它不仅仅是在视频封面标注“由AI生成”就可以解决的问题,它需要将整个人工智能的生态联动在一起,需要不同的学界、产业界共同参与治理,来确保人工智能按照规则和秩序,健康可持续地发展。
相关推荐