隨著人工智能技術的迅速發展,網絡上的內容正變得日益復雜與多樣化。無論是圖文、視頻,還是音頻,AI生成的內容已經廣泛滲透到我們日常的網絡使用中。9月14日,國家互聯網信息辦公室發布了《人工智能生成合成內容標識辦法(征求意見稿)》,其中明確要求,凡是通過AI技術生成的文本、音頻、圖片、視頻等內容,都必須在顯著位置添加標識。這一舉措旨在讓用戶清楚辨別人工智能生成的內容,并防止由此引發的社會問題。
近年來,人工智能技術在內容創作方面的應用變得越來越普及。生成合成技術不僅能高效地創建逼真的圖片、視頻,還能夠快速生成文本內容,使得信息傳播和內容生產的效率大大提升。然而,這種技術的高度發展也帶來了一系列問題,尤其是在信息真假難辨的背景下,AI生成的內容開始模糊真實與虛構的邊界,給社會帶來了不小的困擾。
隨著技術的不斷進步,AI生成的內容逐漸變得高度逼真,普通用戶往往難以分辨其中的真假。例如,在某些情況下,AI生成的圖文內容甚至可以達到以假亂真的程度,使得普通網民無法輕易判斷其真實性。正因為如此,添加顯著的標識來區分人工智能生成的內容就顯得尤為重要。這一要求不僅有助于提高信息透明度,也能防止不法分子利用AI技術造謠生事。
事實上,深度合成內容在多個領域已經得到了廣泛應用,從生成新聞報道到制作虛擬視頻,AI的能力已經超越了傳統的手工創作。然而隨之而來的問題是,這些生成合成的內容在真實性方面缺乏保障,特別是在沒有任何顯著標識的情況下,很容易誤導受眾。尤其是在社交媒體時代,謠言和虛假信息的傳播速度極快,一旦AI生成的內容被廣泛轉發,便可能對社會產生極大的負面影響。
近年來,人工智能生成的虛假內容層出不窮。有調查顯示,一些不法分子利用AI技術每天可以生成數千篇虛假新聞,并通過社交媒體廣泛傳播。這些內容由于借助了先進的生成技術,極具迷惑性,很多看似“真實合理”的文章、圖片或視頻,實際上都是由AI批量制作的。比如,之前的“地鐵行兇”“爆炸事故”等謠言圖片,都是通過AI生成后迅速傳播的,給社會造成了惡劣的影響。
其實早在2022年,國家網信辦曾出臺《互聯網信息服務深度合成管理規定》,對深度合成內容的用途、標識等作出了具體規定。這次發布的《征求意見稿》進一步明確,不論是文本、音頻、圖片還是視頻,只要是由AI生成的,都必須在適當位置添加顯著標識。這一規定直指問題核心,即如何在技術高度發展的時代,保障信息的透明性和真實性,避免AI生成內容對受眾造成認知上的混亂。