人民網
人民網>>知識產權>>首頁滾動

AI學會造假,我們該如何應對

2019年04月16日10:21 | 來源:科技日報
小字號
原標題:AI學會造假,我們該如何應對

奧巴馬會和特朗普說一樣的話,信不信?有視頻為証。在一個對比視頻中,二人不僅話語一致,連話語節奏甚至面部肌肉的動作都是一致的,但談吐風格卻能保持各自特點。

“這是一種被稱為GAN(生成對抗網絡)的新興技術。”日前,香山會議召開以“信息隱藏與人工智能”為主題的學術討論會,北京電子技術應用研究所副研究員李鵬超介紹,GAN是一種生成模型,通過將兩個神經網絡的對抗作為訓練准則,可以自動生成圖像,包括自動篡改圖像。實際上早在2015年,GAN就被用於制作教皇表演“抽桌布”戲法的假視頻,由於過於逼真,很快就火遍網絡。

據統計,大量的合成信息佔據了互聯網,如合成聲音、生成圖像、AI合成不存在的人像等,約佔網絡信息的30%。“眼見為實”很可能已經靠不住了。

機器人水軍已經很成規模

人們判斷真假,經常會說“真的自然”。而人工智能造假,將在盡可能“自然”的前提下,完成自動生成。

“淘寶上的機器人水軍已經很成規模了。”浙江大學管理學院教授孔祥維舉例道,例如商品評價已經由機器自動生成,不再需要雇人“灌水”。

“自動生成帶來的危機是規模性、密集度的大幅增加。”孔祥維說。以淘寶評價為例,如果虛假評價如潮水般涌入,它甚至不需要做到真假難辨,就能將真實評價淹沒。

在社會事件的輿論方面,“機器人水軍如果操縱輿論,將使國家安全置於風險之中。”孔祥維說。

除了自動生成之外,GAN的開源性也帶來巨大的隱患。開源代碼,意味著誰都可以用,代碼一經開源將“變幻無窮”。相關研究人員表示:“這就意味著對這一代碼的研究必須比對手更透徹,才能以不變應萬變。”

防造假需嵌入抗編輯水印

抖音等微視頻APP的普及,使得視頻的發布非常頻繁。有沒有辦法讓公眾的自拍不像前文提到的視頻一樣被篡改?清華大學計算機科學與技術系副教授王道順表示,非法用戶除了借助視頻編輯工具復制后再修改,甚至未經授權轉拍視頻內容。這些操作都是為了得到可以任意修改的“白板”,“我們正在探索基於深度學習的抗編輯視頻水印技術。”王道順說。

這就要求水印在視頻中是隱藏著的,而且不能夠被編輯,人工智能的深度學習技術被用來嵌入這些“入木三分”的水印。王道順表示,他的團隊希望能夠完成嵌入和檢測兩方面的技術輸出。

網絡對抗進化為智能化平台間的對抗

GAN的魔力在於兩個神經網絡之間的競爭,通過讓兩個神經網絡對抗,人工智能深度學習從識別事物升級到有能力創造事物。

技術都有兩面性,人工智能的“造假術”也可被加以利用。信息隱藏技術可以借用人工智能技術和思路,例如利用神經網絡的對抗生成隱藏信息,獲得人工智能相關技術與生俱來的自適應、海量等特點。相關專家表示,深度學習在許多模式識別領域取得了巨大的成功,給信息隱寫和隱寫分析帶來新的方法和挑戰。

對於信息隱藏的基礎研究者來說,因為“思路不同”,傳統的分析手段難以發現的隱藏信息很可能在人工智能的深度學習模式下被輕易破解。香山會議就新課題的緊迫性進行了討論,專家認為:人工智能的發展使得網絡對抗從人與人的對抗進化為智能化、自動化的平台間對抗,作為數據保護和隱蔽通信中的關鍵技術,信息隱藏技術必須有所改變。(張佳星)

(責編:龔霏菲、王珩)

分享讓更多人看到

返回頂部