核心提示: 你對AI有什么印象,沒(méi)有感情、不會(huì )犯錯,還是公正客觀(guān)?但總之,AI是不食人間煙火的,既不會(huì )閃耀人性的光輝,也不存在七宗罪。
你對AI有什么印象,沒(méi)有感情、不會(huì )犯錯,還是公正客觀(guān)?但總之,AI是不食人間煙火的,既不會(huì )閃耀人性的光輝,也不存在“七宗罪”。實(shí)際上,AI并非那么沒(méi)有人性,不過(guò)這并非一件好事。AI獲得智能的同時(shí),也學(xué)會(huì )了人類(lèi)的“歧視”與“偏見(jiàn)”。
AI偏見(jiàn)廣泛存在
麻省理工學(xué)院媒體實(shí)驗室的Joy Buolamwini曾研究過(guò)各個(gè)領(lǐng)先科技公司的面部識別系統,研究發(fā)現,所有的系統在識別男性面孔和淺色皮膚的面孔上擁有較高的準確率,其中,淺色皮膚男性的錯誤率不超過(guò)1%,而深色皮膚女性的平均識別錯誤率則高達35%。
提及對整個(gè)安防行業(yè)產(chǎn)生深刻影響的AI技術(shù),人臉識別肯定榜上有名,但AI人臉識別的這類(lèi)偏見(jiàn),也已經(jīng)滲入了安防領(lǐng)域。安防領(lǐng)域中,帶有偏見(jiàn)的AI可能會(huì )讓清白無(wú)辜者蒙冤,受到無(wú)理審查,這并非杞人憂(yōu)天。
在英國,曾有一名黑人男性因人臉識別技術(shù)失誤而被誤認為嫌犯,在公眾場(chǎng)合遭到搜身檢查。Big Brother Watch UK報告也顯示,倫敦警察廳使用的面部識別技術(shù)有超過(guò)90%的性別識別錯誤率。
AI為何會(huì )產(chǎn)生偏見(jiàn)?
當前人工智能還處于弱人工智能階段,其“偏見(jiàn)”顯然取決于背后訓練算法訓練的數據。如上所述,如果AI訓練數據庫中,白人、男性比黑人、女性更多,且膚色較深的人多與違法相關(guān)的場(chǎng)景同時(shí)出現,就會(huì )導致AI產(chǎn)生偏見(jiàn),這是訓練集和測試集特征分布不一致導致的,在技術(shù)領(lǐng)域被稱(chēng)為“過(guò)擬合”。
目前針對算法“過(guò)擬合”,已經(jīng)有權值衰減、交叉驗證、添加正則項等方法。而關(guān)于如何解決算法歧視問(wèn)題,科技界則眾說(shuō)紛紜。曾有人提出開(kāi)發(fā)公正透明的算法,讓公眾進(jìn)行監督,但這一方法壁壘較高,需受過(guò)專(zhuān)業(yè)訓練才能夠進(jìn)行監督。不過(guò),現在已經(jīng)有不少的科學(xué)家在努力開(kāi)發(fā)出一套“公平公正”的算法系統。
科技向善 AI應服務(wù)于人類(lèi)
無(wú)論哪種方法,都不可能立竿見(jiàn)影地糾正AI偏見(jiàn),因此,科技公司以及組織應當避免將“帶有明顯歧視性質(zhì)的算法”在不經(jīng)測試之下應用到現實(shí)情景中。AI并無(wú)善惡之分,但人類(lèi)需要推動(dòng)科技向善。
在安防領(lǐng)域,公安部門(mén)應用AI技術(shù)關(guān)愛(ài)孤寡老人,以往民警需要每天上門(mén)查看孤寡老人狀態(tài),現在可以通過(guò)人臉、人體及軌跡技術(shù)確認孤寡老人活動(dòng)是否有異常;AI跨年齡人臉識別則可以憑借一張泛黃照片找回被拐十年的兒童。
通過(guò)一張3歲的泛黃照片,騰訊優(yōu)圖利用AI技術(shù)突破“跨年齡人臉識別”,助力警方尋回被拐十年兒童。騰訊董事會(huì )主席馬化騰也多次在公開(kāi)演講中闡釋“科技向善”的愿景與使命。
而在未來(lái)的算法開(kāi)發(fā)過(guò)程中,應該對算法開(kāi)發(fā)者進(jìn)行適當的“算法倫理”教育,并且確定一些算法的“基本準則”,如同“機器人永不能傷害人類(lèi)”一樣。