【環球時報報道 記者 馬俊】迅猛發展的人工智能(AI)浪潮正席卷全球,網絡安全領域也受到巨大影響。不久前的“全球藍屏”事件已經證明,現代社會對于信息化的依賴度有多強,而構建在大數據基礎上的AI時代,又將如何保證網絡安全?《環球時報》記者在7月31日到8月1日舉行的ISC.AI 2024第十二屆互聯網安全大會上,聽取了多名業內專家的見解。
當前AI存在特殊缺陷
中央網絡安全和信息化委員會辦公室副主任、國家互聯網信息辦公室副主任王京濤在致辭中表示,截至目前,我國已經完成備案并上線、能為公眾提供服務的生成式AI服務大模型已達180多個,注冊用戶已突破5.64億。
但是目前的AI在自身基礎理論和具體應用上都還存在諸多特殊缺陷。中國科學院院士、清華大學計算機系教授張鈸在大會主題演講中表示,當前流行的生成式AI擁有語言生成、自然語言交互和遷移三大能力,但同時也存在“幻覺”缺陷,也就是“一本正經地亂說”,而且“很多情況下AI并不知道自己說錯了”。他表示,生成式AI的這個缺陷與“三大能力”是同時出現的,“這是因為我們要求它有多樣性的輸出,必然就會產生錯誤。這種跟機器都會產生常見錯誤非常不一樣,后者往往是我們可以控制的,而生成式AI的錯誤是本身的錯誤,是一定會發生的,而且是我們不可控的。”
中國工程院院士、國家數字交換系統工程技術研究中心主任鄔江興表示,人類社會正在以前所未有的熱情擁抱AI時代的來臨,但是人類社會也正面臨前所未有的AI安全威脅。AI應用系統安全問題既包括傳統的網絡安全問題,也有獨特的內生安全個性問題,這成為當前AI推廣應用中的最大障礙。鄔江興表示,內生安全個性問題存在著“三不可問題”,即不可解釋性、不可推論性、不可判識性。不可解釋性是指通過訓練擬合階段,讓AI從大數據掌握到知識規律,但其中的工作原理是什么,我們仍然不明確,一旦出現問題,想要定位具體故障點有難度。不可判識性是指用來訓練AI的大數據質量高低直接影響到大模型的判斷結果。不可推論性是指AI目前對沒有經歷過的未知事物通常是無法理解和判斷的。
“全球藍屏”事件已發出預警
王京濤強調說,網絡安全是一項系統工程,涉及的領域廣、方面多,維護網絡安全不僅是政府的事,也是全社會的共同責任,需要企業、社會組織、網民等各方共同參與,共筑防線。關鍵信息基礎設施是經濟社會運行的神經中樞,是國家網絡安全工作的重中之重。當前,萬物互聯、產業數字化日趨明顯,經濟社會運行和人民生產生活對關鍵信息基礎設施的依賴性日益增強,網絡攻擊、供應鏈中斷等都可能帶來嚴重影響。
如果說在個人電腦時代,網絡安全是指存儲在電腦里的信息安全,在移動互聯網時代,網絡安全可能影響財務的安全,那么在AI時代,網絡安全面臨什么樣的新威脅呢?
360集團創始人周鴻祎表示,不久前美國“眾擊”公司升級程序錯誤導致的“全球藍屏”事件造成全球航空業癱瘓,就已經提前發出了警告。他表示,過去電腦、手機都只是個人工具,存放的都是個別信息,遭到攻擊后損失和影響范圍相對有限;但在數字化時代,電腦、網絡和數據在生產流程和很多關鍵基礎設施中發揮了極大作用,如果受到網絡攻擊,會影響整個社會的正常運行,導致醫院開不了門、柜臺無法值機、麥當勞結不了賬。而AI時代的這個問題進一步放大了,未來AI可以發揮的作用遠非現在看到的“寫篇作文”“做點圖片”。他以AI最典型的應用場景——無人駕駛為例介紹說,未來真正實現無人駕駛汽車,駕駛座上可以完全沒有人時,如果車廠運營中心遭到網絡攻擊,后果遠超想象。輕則是車輛跟車廠失去聯系,很多車只能趴窩無法行駛。更嚴重的是“黑客控制了車廠服務器”。因為自動駕駛汽車都是通過車聯網聽從車廠的AI遙控指揮,“車廠的網絡結構非常復雜,網絡攻擊的難度比針對單輛自動駕駛汽車的難度要低得多。”因此黑客控制了車廠的AI中心服務器,就可以給它所控制的自動駕駛汽車下達各種指令,可能導致車門打不開,或者一路狂奔,后果非常嚴重。
周鴻祎還提到,外界普遍預測未來很多養老服務會由機器人負責,如果它們因網絡攻擊失控更可怕,“比如機器人正在給你洗頭、洗澡,突然接到黑客指令,如果只是不動了還好辦,就怕傳來的指令是‘再用力一點’”。
以模制模,“用魔法打敗魔法”
周鴻祎表示,網絡安全行業有很多痛點能用AI解決。比如海量的數據分析難、快速處置難、追蹤溯源所需要的安全專家人力不足等。“今天傳統網絡安全最大痛點就是缺乏專業的網絡安全人才,中國有100多萬專業人才的缺口,在發現攻擊、抵御攻擊、情況處置、自動化運營方面現在跟不上時代要求。我們通過訓練安全大模型,通過AI自動化解決發現攻擊、解決攻擊和運營處置的問題,可以提高水平,能夠填補這塊人才的缺口。”
但周鴻祎也承認,AI在網絡安全領域帶來了新挑戰,“首先是AI一定會成為壞人的工具,包括如何編寫攻擊軟件、編寫釣魚網站。現在網絡安全是人跟人的對抗,未來會生成人和機器的對抗,最后發展成機器和機器的對抗。所以必須要用AI應對AI升級的安全問題。”
其次,現在很多國家都意識到AI安全治理問題,隨著AI的發展,會帶來很多網絡安全之外、數據安全之外新的安全威脅和安全挑戰。“眼前的挑戰還不明顯,可能我們看到的還是內容安全,但是將來會出現更多我們現在還無法預測的網絡安全問題。所以從現在開始要有人解決AI安全的問題。”他認為,AI帶來的安全問題用傳統安全思路解決是不行的,因為AI比傳統的軟件要聰明。所以對AI就得“以模制模”,必須用大模型解決大模型的安全問題。
中國網絡空間安全協會副理事長盧衛也表示,人工智能的發展和治理,就是有關全人類的共同命運。人工智能學習模型存在很多問題,同時數據有很多自身風險。在發展的過程中,一定要應對好、梳理好這些風險。“我們國家對安全高度重視,在確保安全的情況下發展人工智能,已經建立或者正在建立比較完整的治理體系。目前AI模型的安全性落后于現在的性能和發展,要引起重視。安全治理要圍繞以人為本、智能向善、公平正義、負責任、非惡意、防攻擊等重點環節展開。”