近期,AI深度合成技術(shù)引發(fā)的侵權(quán)現(xiàn)象引起關(guān)注。據(jù)報道,多名公眾人物的聲音和形象未經(jīng)授權(quán)被用于制作惡搞視頻或帶貨廣告,這不僅損害了當(dāng)事人的合法權(quán)益,更暴露了當(dāng)前AI技術(shù)在應(yīng)用過程中面臨的種種挑戰(zhàn)。
AI深度合成技術(shù),通俗來說就是通過人工智能算法實(shí)現(xiàn)聲音克隆、面容替換等效果。這種技術(shù)既可用于打造虛擬主播、數(shù)字永生等創(chuàng)新場景,也可能淪為侵權(quán)工具。在技術(shù)門檻持續(xù)降低,且缺乏有效監(jiān)管的背景下,AI濫用的風(fēng)險不容小覷。
侵權(quán)行為發(fā)現(xiàn)難,技術(shù)的復(fù)雜性和隱蔽性使得侵權(quán)行為難以被及時認(rèn)定,通常需要被侵權(quán)人主動追溯;侵權(quán)行為危害大,AI深度合成技術(shù)的濫用模糊了真實(shí)與虛假的邊界,“眼見不再為實(shí)”沖擊著不少人的觀念;侵權(quán)行為維權(quán)難,被侵權(quán)人在維權(quán)過程中成本很高,AI深度合成技術(shù)帶來的經(jīng)濟(jì)損失更是難以全數(shù)追回。這種“發(fā)現(xiàn)難—危害大—維權(quán)困”的惡性循環(huán),凸顯出傳統(tǒng)治理模式的效能瓶頸。
面對AI深度合成技術(shù)帶來的問題,除了法律應(yīng)對,還需要探索技術(shù)上的解決方案。例如,一些研究機(jī)構(gòu)和企業(yè)已經(jīng)開始開發(fā)AI檢測工具,用于識別深度合成的音視頻內(nèi)容,通過分析視頻的像素層面和音頻的細(xì)微特征,有效區(qū)分內(nèi)容是否為合成。此外,技術(shù)專家還建議利用深度學(xué)習(xí)模型對合成內(nèi)容進(jìn)行標(biāo)注,以便在傳播過程中明確其真實(shí)性和來源。與此同時,也應(yīng)通過宣傳和科普讓更多人了解AI合成技術(shù)的風(fēng)險,學(xué)會使用相關(guān)技術(shù)手段,分辨虛假信息。
AI深度合成技術(shù)是一把雙刃劍,應(yīng)在充分發(fā)揮其積極作用的同時,加強(qiáng)規(guī)范和治理。要更好發(fā)揮技術(shù)手段的優(yōu)勢,不斷完善法律法規(guī),加大監(jiān)管力度,讓技術(shù)真正造福人類。