未來的超級智能網(wǎng)絡(luò)攻擊需要AI競技俱樂部來拯救
數(shù)據(jù)科學(xué)競賽平臺Kaggle將舉辦一場為期五個月的AI競賽,這場競賽將模擬未來的網(wǎng)絡(luò)安全和網(wǎng)絡(luò)戰(zhàn)爭,戰(zhàn)爭的攻守雙方都是AI算法,它們將互相迷惑互相欺騙,以研究如何加強機器學(xué)習系統(tǒng)來抵御未來可能出現(xiàn)的攻擊。 專門研究機器學(xué)習局限性的懷俄明大學(xué)助理教授Jeff Clune說:“研究如何欺騙深度神經(jīng)網(wǎng)絡(luò)和規(guī)劃不可欺騙的深度神經(jīng)網(wǎng)絡(luò)是一個不錯的想法?!? 這場競賽將由三部分組成。第一個挑戰(zhàn)是讓機器學(xué)習系統(tǒng)混亂,使其無法正常工作。第二個是強制讓系統(tǒng)產(chǎn)生分類錯誤。第三個涉及到開發(fā)一個堅固的防御系統(tǒng)。詳細信息將在今年晚些時候一個重要的AI大會上公布。 機器學(xué)習,特別是深度學(xué)習,正在快速成為許多行業(yè)不可或缺的工具。這項技術(shù)是將數(shù)據(jù)提供給一種特殊的計算機程序,并指定特定的結(jié)果,以使計算機能開發(fā)出自己的算法來實現(xiàn)這個結(jié)果。深度學(xué)習就是通過不斷調(diào)整一個龐大而又相互連接的數(shù)學(xué)模擬神經(jīng)元的參數(shù)來實現(xiàn)這個的。 眾所周知,機器學(xué)習系統(tǒng)可以被欺騙的。例如,垃圾郵件發(fā)送者可以通過找出郵件過濾器算法的訓(xùn)練模式來避開現(xiàn)代垃圾郵件過濾器。 然而,近年來,研究人員表明,即使是最聰明的算法有時也會以不可思議的方式被誤導(dǎo)。例如,具有近乎人類技能的深度學(xué)習算法在識別圖像對象的時候,可能會被看似抽象或隨機的圖像所欺騙。 谷歌大腦的研究人員Ian Goodfellow表示:“對抗性機器學(xué)習比傳統(tǒng)的機器學(xué)習更難研究,很難判斷出攻擊是否強悍,或者防御是否薄弱?!?谷歌大腦是一個專門研究和使用機器學(xué)習的部門,這次競賽就是他們組織的。 隨著機器學(xué)習的普及,人們擔心這種攻擊會被用于營利或純粹的惡作劇。例如,黑客可能會避開安全措施來安裝惡意軟件。 Goodfellow表示:“計算機安全正向著機器學(xué)習的方向發(fā)展。犯罪分子將運用機器學(xué)習進行自動化攻擊,而我們將運用機器學(xué)習來防御”。 從理論上來說,犯罪分子可以讓聲音和面部識別系統(tǒng)癱瘓,甚至會侵入交通信號系統(tǒng)以欺騙自動駕駛汽車的視覺系統(tǒng),導(dǎo)致系統(tǒng)崩潰。 Kaggle已經(jīng)成為算法開發(fā)的寶地,也是優(yōu)秀數(shù)據(jù)科學(xué)家的搖籃。該公司于3月份被Google收購,現(xiàn)在已成為Google Cloud平臺的一部分。Goodfellow和另一位谷歌大腦的研究人員Alexey Kurakin在收購之前就提出了有關(guān)本次競賽的想法。 Kaggle的聯(lián)合創(chuàng)始人兼首席技術(shù)官Benjamin Hamner表示,他希望競賽能引起人們的關(guān)心。他說:“隨著機器學(xué)習的運用越來越廣泛,從對抗學(xué)習中理解問題和風險變得越來越重要。” 舉辦公開競賽的好處超過了宣傳新型攻擊相關(guān)的任何風險,他補充說道:“我們應(yīng)該公開分享這項研究的成果,而不是閉門造車。” 同時,Clune表示,他希望這次競賽能夠找到抵御攻擊的算法。