Google 科學家上周發表研究報告,顯示該公司實驗打造的人工智慧系統具有自行產生加密演算法的能力,以防止第三方刺探通訊內容。
Google Brain計畫科學家Martin Abadi 和David Andersen在實驗中建立的人工智慧系統包括三個神經網路,分別名為Alice、Bob與Eve,並訓練Alice將一串16位元0與1組成的明碼訊息傳送給Bob,並且不讓企圖Eve猜出訊息內容。研究人員只給了上述目標,但未指定Alice和Bob之間使用何種方法。
Google研究人員在單顆GPU系統上以TensorFlow上反覆進行這項實驗。在實驗中,Alice訊息由Bob接收、解讀、重建,同時Eve也加以解讀。一開始Bob和Eve的重建錯誤率都很高,但隨著次數增加,雙方正確率都逐漸進步,到第10,000次後,Alice與Bob之間的協同正確率開始超越Eve進步幅度,到了第15,000次後,Alice與Bob的訓練效果逐漸呈現(錯誤率在1左右),而Eve則進展有限(維持在8位元),顯示它只是隨機猜測而已,同時也顯示Alice發展出一種和Bob間的祕密通訊方式防止Eve「偷看」。
研究人員指出,神經網路一般並不擅長加密,經常連最基本的加密演算法都無法計算,然而本項實驗中卻顯示它們在未被教導任何演算法情況下,經由學習發現特定加、解密的方法,進而達到訊息保密的目的。
研究人員承認這項實驗只顯示神經網路能學習發展自己的加密方法,但並不高明,但是他們認為神經網路目前雖不善於密碼分析,但或可用於metadata解讀及流量分析,甚至用於攻擊目的。
一些科技大老如Bill Gates、Elon Musk都曾對人工智慧進展表達憂心,認為如果任由其發展,未來可能將反過來不利於人類。