在人工智能和大數(shù)據(jù)時(shí)代,公民個(gè)人信息權(quán)益的保護(hù),相較于技術(shù)發(fā)展更加脆弱,必須盡快找到可行的應(yīng)對之道。
人工智能算法能“偷聽”用戶信息
人工智能(AI)算法是否可以“偷聽”你的信息?對于這樣的疑問,許多人恐怕還半信半疑,難以給出確定答案。但劍橋大學(xué)的一項(xiàng)最新研究卻表明:這是很有可能的。
“偷聽”的原理是:當(dāng)人們輕敲手機(jī)和平板電腦的屏幕時(shí)會產(chǎn)生聲波。這些聲波通過設(shè)備的內(nèi)置麥克風(fēng)收集、恢復(fù),從而就可“聽到”敲擊屏幕的聲音。結(jié)合人工智能算法,聽到的聲音與鍵盤位置關(guān)聯(lián),就可實(shí)現(xiàn)“偷聽”用戶信息。
開展這項(xiàng)研究的劍橋大學(xué)計(jì)算機(jī)實(shí)驗(yàn)室用其自己開發(fā)的算法模型進(jìn)行了實(shí)驗(yàn),結(jié)果表明,對于四位數(shù)密碼而言,該模型在10次嘗試后可以準(zhǔn)確恢復(fù)54%的密碼;20次嘗試后可以恢復(fù)150個(gè)密碼中的91個(gè),識別準(zhǔn)確率為61%。
該項(xiàng)研究的論文于3月26日發(fā)表,題目就叫《聽到你的觸摸:智能手機(jī)上的新聲學(xué)側(cè)通道》。
對于已經(jīng)基本離不開智能手機(jī)的我們來說,這項(xiàng)研究結(jié)果無疑是當(dāng)頭一棒。就在前不久,某些手機(jī)APP“偷聽”用戶信息的消息,在很短時(shí)間內(nèi)刷爆朋友圈,引發(fā)了巨大質(zhì)疑。相關(guān)平臺迅速出面辟謠,而許多針對性的測試也一時(shí)拿不出確鑿證據(jù)。
坦率地說,我們不相信相關(guān)平臺就是在有意地“偷聽”,而更傾向于認(rèn)為,這是大數(shù)據(jù)在自動(dòng)生成“用戶畫像”。只是畫像的精準(zhǔn)度,也著實(shí)讓人害怕。
扎緊技術(shù)倫理和法律籬笆
但從另一個(gè)角度來看,懷疑“偷聽”不啻為一聲響亮的警鐘,它再次對我們發(fā)出警示:在人工智能和大數(shù)據(jù)時(shí)代,公民個(gè)人信息權(quán)益的保護(hù),相較于技術(shù)發(fā)展更加脆弱,必須盡快找到可行的應(yīng)對之道。
同時(shí),對以“進(jìn)步”為名的技術(shù)發(fā)展,我們也必須保持高度警惕和懷疑,并時(shí)刻從人類尊嚴(yán)和技術(shù)倫理的高度詳加審視。這是必要的審慎,絕不是螳臂當(dāng)車的保守,因?yàn)槟贫稍缇驼f得非常清楚——如果事情有變壞的可能,不管這種可能性有多小,它總會發(fā)生,并造成最大可能的破壞。
“偷聽”有可能發(fā)生嗎?劍橋大學(xué)的研究已經(jīng)表明:肯定會的。雖然囿于技術(shù)的局限,目前尚無法偷聽得那樣精確。但假以時(shí)日,人工智能算法裝備的智能手機(jī)等設(shè)備,肯定會把人“偷”得赤條條。而以技術(shù)發(fā)展在當(dāng)今的迅猛之勢,這個(gè)時(shí)日其實(shí)并不多么遙遠(yuǎn)。
我們已清楚地看到“灰犀牛”就在那里,它正在向我們沖來。可是出于無數(shù)的利益計(jì)算和猶疑,人類就是找不到切實(shí)的預(yù)防、應(yīng)對之策。
這正是我們當(dāng)前面臨的惱人困惑。對于公民個(gè)人信息安全,目前能夠想到的辦法,無外乎以繁多的法律法規(guī)條款,盡可能扎緊籬笆,同時(shí)加大懲處力度。但這種辦法,受制于差異極大的文化環(huán)境和執(zhí)法力度,常常很難從紙面上真正落地。
而更加薄弱的是,技術(shù)倫理明顯還未受到應(yīng)有的重視,更缺乏現(xiàn)實(shí)的灌輸培育。很多科技者僅僅醉心于技術(shù)突破,由于和遠(yuǎn)端的技術(shù)應(yīng)用者以及被影響者相隔著明顯距離,他們幾乎不可能感受到技術(shù)發(fā)展可能帶來的麻煩與痛苦。對于“偷聽”的懷疑,其實(shí)恰恰反證了技術(shù)倫理的缺位可能帶來的問題。
人工智能、大數(shù)據(jù)是當(dāng)今社會發(fā)展的趨勢,沒有任何力量能夠阻止它們前進(jìn)的步伐。我們認(rèn)可并且也愿意享受這樣的進(jìn)步,但前提條件是,它們應(yīng)是為人類服務(wù),而不是羞辱、奴役人類。