從自動駕駛到深度攝像頭的廣泛普及,人類社會對AI的應用似乎已經(jīng)有了一定信任度,即使機器從不會疲勞,但依然會產(chǎn)生偏離與錯誤。下圖是一個玩具烏龜,至少我們看起來是個烏龜,對吧?但是利用神經(jīng)網(wǎng)絡構建的谷歌識別系統(tǒng)看來,這是一把來復槍。
這只通過3D打印的玩具烏龜可以被歸納為“對抗圖像”。在AI的世界里,這些圖片被設計成擁有欺騙機器視覺的能力,通過特殊的樣式讓AI系統(tǒng)失控,我們可以理解這些對抗圖像是計算機眼中的錯覺。因此人們可以通過這類圖片讓人臉識別系統(tǒng)將你識別為另一個人,也可以通過特定的范式讓計算機把可愛的熊貓識別為一輛黑白相間的卡車。
事實上,如何在算法層面避免這些潛在的對抗性問題已經(jīng)成為一個非常熱門的研究領域。過去這些對抗性問題有過多次成功騙過機器的案例,但也并不是100%成功。如果我們把圖片旋轉一個角度或針對某一點放大或縮小,機器便會通過過去學習到的模式得出正確的結論。那么為什么這個3D打印的烏龜會這么重要?那是因為這是第一次機器在在三維世界中,通過多角度觀察后依然被成功欺騙。
以上案例牽扯出一個非?,F(xiàn)實的問題,即基于神經(jīng)網(wǎng)絡的智能系統(tǒng)在越來越普遍的過程中 ,隨之而來的安全隱患也必須給予重視。Labsix 稱這部分問題叫做 “Expectation Over Transformation”,其實機器不止把烏龜看成了來復槍,也把棒球看成了一杯濃縮咖啡,研究人員做了非常多的隨機測試,發(fā)現(xiàn)錯判率不低。
Labsix 團隊表明,他們用作對抗圖像測試所使用的系統(tǒng)是谷歌旗下的一個免費平臺叫“Inception-v3”,至今這套系統(tǒng)并沒有對對抗性圖片做出修復,依然在不停的發(fā)現(xiàn)識別錯誤的問題。而谷歌至今也沒有針對這篇論文和這件事情發(fā)表評論。但據(jù)相關人士透露,谷歌已經(jīng)針對這起事件成立了專項組做跟進。
947 0
登陸后參與評論
2024-12-23 11:36:44
2024-12-23 11:33:08
2024-12-23 11:22:30
2024-12-23 11:18:58
2024-12-02 09:59:38
2024-12-02 09:56:56
2024-12-02 09:45:21
2024-11-29 11:06:12
2024-11-29 11:03:58
2024-11-29 11:01:13
2024-11-29 10:58:23
2024-11-26 09:41:32