換臉換聲、版權(quán)侵權(quán)……生成式AI被濫用該如何治理?
中國互聯(lián)網(wǎng)絡(luò)信息中心日前發(fā)布了《生成式人工智能應(yīng)用發(fā)展報告(2025)》。報告顯示,我國生成式人工智能產(chǎn)品用戶規(guī)模已達(dá)5.15億人。報告同時也提出,隨著生成式人工智能的高速普及,其帶來的換臉換聲、版權(quán)侵權(quán)、學(xué)術(shù)濫用等問題也越發(fā)凸顯。這些問題在實踐中存在哪些表現(xiàn)?如何治理和應(yīng)對這些風(fēng)險挑戰(zhàn)?
利用AI換臉換聲生成虛假廣告案件頻發(fā)
生成式人工智能的多模態(tài)能力,可以讓用戶輕易給視頻中的人物換臉換聲,甚至直接生成完全虛構(gòu)的視頻,給不法分子帶來可乘之機(jī)。近期就發(fā)生了多起AI換臉換聲,生成虛假廣告的案件。比如,有的偽造奧運冠軍推薦土雞蛋,還有的偽造醫(yī)生形象推銷保健品,嚴(yán)重誤導(dǎo)公眾。
這些換聲和換臉的AI深度合成是如何制作出來的呢?面對這些以假亂真的視頻,又該如何識別?
業(yè)內(nèi)人士告訴記者,隨著AI換聲換臉技術(shù)的越來越成熟,已經(jīng)足以達(dá)到以假亂真的地步。分辨一段視頻或者聲音是否是經(jīng)過深度合成,最好的辦法還是通過AI去識別。即用AI去識別AI。
人工智能大模型研究員 潘季明:從技術(shù)角度來說,最快的方式還是基于AI的方式去進(jìn)行識別,如專門的深度偽造鑒別模型,用于分析視頻和音頻中的不自然的特征,如檢測眨眼頻率、面部肌肉運動的生理一致性、音頻與純嘴唇同步率、光源一致性等細(xì)微的物理或生理破綻。
專家:治理核心在于全面落實內(nèi)容標(biāo)識制度
近兩年,AI深度合成名人、換臉換聲的視頻層出不窮、屢禁不止。對此,專家表示,治理的核心在于全面落實內(nèi)容標(biāo)識制度。
北京航空航天大學(xué)法學(xué)院副教授 趙精武:我國自2025年9月起正式施行了《人工智能生成合成內(nèi)容標(biāo)識辦法》,其中明確要求,所有AI生成的文字、圖片、視頻等內(nèi)容必須添加顯式標(biāo)識以"亮明身份",同時鼓勵添加數(shù)字水印等隱式標(biāo)識。平臺企業(yè)應(yīng)當(dāng)依據(jù)《人工智能生成合成內(nèi)容標(biāo)識辦法》,從源頭嵌入標(biāo)識機(jī)制,為AI生成內(nèi)容附加不可篡改的數(shù)字水印,并確保這些標(biāo)識在經(jīng)過剪輯、壓縮后仍能被準(zhǔn)確識別。
專家表示,AI深度合成的使用者在通過AI制作視頻時,應(yīng)該有一條侵權(quán)法律界限,要合規(guī)合法使用人工智能深度合成。
北京航空航天大學(xué)法學(xué)院副教授 趙精武:在明確合法性邊界方面,需要嚴(yán)格區(qū)分AI換臉技術(shù)的合法應(yīng)用與非法濫用的邊界。合法應(yīng)用通常包括影視制作、教育教學(xué)、醫(yī)療康復(fù)等具有正當(dāng)價值的場景,這些應(yīng)用需遵循法律上規(guī)定最小必要原則,確保使用范圍和目的相匹配,并獲取相應(yīng)授權(quán)。而非法濫用則主要表現(xiàn)為未經(jīng)授權(quán)的肖像冒用、虛假信息傳播、淫穢色情內(nèi)容制作等場景。
AI大模型訓(xùn)練引發(fā)版權(quán)問題 矛盾怎么破?
再來看人工智能帶來的版權(quán)侵權(quán)問題。早在去年10月,文學(xué)界、音樂界等超萬名人士發(fā)表了一份聯(lián)合聲明,譴責(zé)“未經(jīng)許可使用創(chuàng)意作品來訓(xùn)練生成式人工智能”的行為。人工智能大模型使用的數(shù)據(jù)為何會引起版權(quán)爭端,又該如何破局,來聽聽專家怎么說。
AI業(yè)內(nèi)人士告訴記者,目前人工智能大模型訓(xùn)練的數(shù)據(jù),絕大多數(shù)來自于網(wǎng)絡(luò),這些數(shù)據(jù)就包括含有版權(quán)的相關(guān)數(shù)據(jù)。
人工智能大模型研究員 潘季明:現(xiàn)有的大模型都是基于海量的數(shù)據(jù)進(jìn)行訓(xùn)練的,其來源包括像互聯(lián)網(wǎng)數(shù)據(jù),以及圖書、論文、行業(yè)數(shù)據(jù)等,經(jīng)過數(shù)據(jù)預(yù)處理,通過無監(jiān)督學(xué)習(xí)、微調(diào)、強(qiáng)化學(xué)習(xí)之后,便可用于內(nèi)容生成。然而模型是沒有版權(quán)意識的,它不知道哪些內(nèi)容是涉及版權(quán),哪些不能隨便生成,除非對現(xiàn)在數(shù)據(jù)進(jìn)行一個明確的版權(quán)標(biāo)識。而現(xiàn)在的大模型基本上不管有沒有版權(quán),都會去進(jìn)行一個數(shù)據(jù)抓取訓(xùn)練。
針對人工智能大模型涉及的版權(quán)問題,專家表示,發(fā)展人工智能不能以犧牲版權(quán)為代價,兩者和諧共生應(yīng)以尊重知識產(chǎn)權(quán)為前提。
北京航空航天大學(xué)法學(xué)院副教授趙精武介紹,AI開發(fā)運營者需建立全面的著作權(quán)合規(guī)機(jī)制,包括:
在訓(xùn)練數(shù)據(jù)收集階段進(jìn)行版權(quán)審核,優(yōu)先獲取授權(quán)和使用開放許可的資源;在模型訓(xùn)練過程中保留數(shù)據(jù)來源記錄;
在內(nèi)容生成環(huán)節(jié)嵌入防抄襲檢測;
在輸出階段需要添加版權(quán)標(biāo)識和水印。
另一方面,主管部門需要擴(kuò)充訓(xùn)練數(shù)據(jù)供給渠道,化解訓(xùn)練數(shù)據(jù)不充分與版權(quán)的沖突困境。
學(xué)生和研究人員濫用AI寫論文抄作業(yè)引關(guān)注
除了剛才說到的問題,報告中也提到,學(xué)生和研究人員將生成式人工智能用于寫論文、抄作業(yè)的情況也正引起各界關(guān)注。
專家表示,隨著生成式人工智能在學(xué)術(shù)研究中的廣泛應(yīng)用,學(xué)術(shù)誠信體系面臨前所未有的挑戰(zhàn)。簡單的禁止措施已被證明效果不彰,且難以執(zhí)行。“堵不如疏”的治理理念正成為全球?qū)W術(shù)界的共識,其核心在于認(rèn)可AI技術(shù)提升科研效率的積極價值,同時通過規(guī)范引導(dǎo)確保其應(yīng)用不損害學(xué)術(shù)誠信。
北京航空航天大學(xué)法學(xué)院副教授 趙精武:在教學(xué)活動中,教師應(yīng)當(dāng)設(shè)置專門環(huán)節(jié)引導(dǎo)學(xué)生正確使用AI工具,將該類工具從“偷懶”“圖省事”的錯誤定位調(diào)整為“提升學(xué)習(xí)效率”“輔助科研”的正確功能定位,明確它的輔助定位的屬性。同時,教師還需要設(shè)計能夠評估學(xué)生思維過程的考核方式,減少對純文本輸入的依賴,增加過程性評價比重。(央視新聞客戶端)

社會新聞精選:
- 2025年10月22日 15:15:25
- 2025年10月22日 14:54:07
- 2025年10月22日 14:53:17
- 2025年10月22日 14:30:42
- 2025年10月22日 14:00:16
- 2025年10月22日 13:24:45
- 2025年10月22日 11:16:23
- 2025年10月22日 11:11:57
- 2025年10月22日 08:56:48
- 2025年10月22日 06:06:32