
深度偽造已不再是新鮮事。它們正迅速成為對商業、社會和民主的系統性威脅。 根據歐洲議會預計到 2025 年,分享的 Deepfake 影片數量將達到 8 萬條,而 2023 年這一數字僅為 0.5 萬條。在英國,五分之二的人聲稱至少遇到過一次 Deepfake 視頻 在過去六個月裡。但是,儘管它們曾經相對容易被發現,但隨著公開的人工智慧模型日益複雜化,檢測變得比以往任何時候都更加困難。
生成對抗網路 (GAN) 和擴散模型的進步,催生了先進的超逼真深度偽造技術。這兩項技術在即時視訊通話或直播中實現了無縫換臉和語音調製,極大地提升了用戶體驗,虛擬化身等功能使遊戲和會議更加個性化和沈浸式。但這也為即時冒充詐騙打開了方便之門。
你可能以為只有不熟悉的人才會認不出冒充自己熟悉和信任的人的詐騙行為。但去年5月,一群騙子冒充工程公司奧雅納(Arup)的高階經理,成功說服財務部門的一名員工將2億港元資金轉入五個本地銀行帳戶。過去12個月內,法拉利、WPP和Wiz等公司也遭遇了類似的攻擊,這些攻擊冒充公司高階員工和首席執行官,破壞了人們對數位通訊的信任。
語音克隆也隨著深度偽造而激增。人工智慧驅動的語音合成技術如今能夠以驚人的精度複製人類的聲音。令人驚訝的是,只需幾秒鐘的音訊就足以創造出近乎完美的克隆。這可能非常適合各種創意用途,例如個人化有聲書或配音,但它也有可能造成巨大的傷害。
今年7月,佛羅裡達州一名女子誤以為是女兒車禍後哭喊求救,被騙了15萬美元保釋金。打電話的人是一個扮演她女兒的人工智慧克隆人,最終將電話轉給了一位自稱是律師的律師,後者提供了轉接說明。這些克隆人只是利用人們的片段聲音拼湊起來的,而這些片段很容易在社群媒體管道上找到,這凸顯了其被濫用的可能性。
在社群媒體上,現實與虛構的界線正在變得模糊。人工智慧生成的虛擬網紅主宰著網路行銷領域,為品牌提供了完全可控的人物角色。如今,觀眾必須置身於一個真實人物與虛擬人物幾乎難以區分的世界,這引發了人們對媒體真實性的質疑。在好萊塢,深度偽造技術被用來讓演員變得更年輕或重塑歷史人物。雖然這讓製作公司能夠以相對較低的成本提升內容質量,但也讓騙子得以複製令人信服的名人肖像,並以此引發爭議。
但其風險遠不止於名人的虛假陳述。深度偽造技術可能被用來製造政治分裂,例如傳播虛假敘事或偽造政治人物發表虛假演講的影片。其後果可能十分嚴重,例如左右公眾輿論、改變國家選舉進程,甚至可能毒害全球政治論述。
面對如此多的威脅,世界各國政府正積極回應。歐洲的《人工智慧法案》包含一項條款,要求對利用人工智慧產生或修改的內容進行強制標註,以便用戶知曉其來源。雖然該法案並未禁止深度偽造,但它禁止在某些情況下使用人工智慧系統進行秘密操縱。一些政府正在積極使用或投資能夠辨識聲音、臉部或影像細微變化的偵測技術。
但監管仍落後於技術。強制標註、AI偽造檢測演算法和音訊取證是解決方案的重要組成部分,但要遏制深度偽造的威脅,需要更廣泛、更全面的策略。強而有力的監管和道德準則,以及對媒體素養的投入,在打擊深度偽造詐欺和虛假資訊方面,發揮同等甚至更大的作用。
監管和道德準則必須更加積極主動,水印和強制揭露標準必須成為任何深度偽造策略的常規特徵。同時,媒體素養必須成為優先事項。公民必須具備批判性思考能力,質疑他們所見所聞。只有監管機構、私部門和民間社會攜手合作,我們才能保護數位生活,確保深度偽造威脅成為過去。
免责声明:本文提供的信息不是交易建议。BlockWeeks.com不对根据本文提供的信息所做的任何投资承担责任。我们强烈建议在做出任何投资决策之前进行独立研究或咨询合格的专业人士。