客服熱線(xiàn):0551-69106578 業(yè)務(wù)咨詢(xún):0551-69106578 郵箱:2268263116@qq.com
Copyright (c) 2012 機電產(chǎn)品交易網(wǎng) . 版權所有 皖I(lǐng)CP備12004440號-2
自從1920年捷克作家卡雷爾·恰佩克在他的劇本《羅素姆的萬(wàn)能機器人》(Rossum’s Universal Robots)中,第一次使用robot這個(gè)詞,描繪了被機器人統治的世界以后,全球的劇作家們就開(kāi)始各種放飛想象。
從奠定了“機器人三定律”的阿西莫夫小說(shuō),到與人類(lèi)纏斗不休的《終結者》系列,亦或是充滿(mǎn)哲學(xué)浪漫色彩的《愛(ài)死亡機器人》,關(guān)于機器的善惡二元論,為科幻世界貢獻了無(wú)數經(jīng)典,也成了智能科技領(lǐng)域中最接地氣、人人都能討論兩句的主題之一。
機器人真的會(huì )擁有自主意識嗎?又會(huì )對人類(lèi)社會(huì )產(chǎn)生怎樣的影響?粒子機器人的出現,似乎又將這道難解之謎推演到了新的階段。
最近,哥倫比亞大學(xué)教授、機器人研究權威專(zhuān)家Hod Lipson提出,機器將會(huì )有自我意識,這件事是確信無(wú)疑的。只不過(guò)“這件事情將在10年之后發(fā)生,還是100年之后發(fā)生”,科學(xué)家本人也不知道。
我們知道,以往在設計機器智能系統的時(shí)候,技術(shù)人員總是會(huì )試圖讓它們模擬和還原人類(lèi)的行為。于是我們看到,機器在copy人類(lèi)的過(guò)程中,學(xué)會(huì )了如何看、如何下棋,甚至還會(huì )像人一樣控制肢體來(lái)上一段花式體操??雌饋?lái),似乎機器的能力已經(jīng)比絕大多數普通肥宅要強的多了。但為什么小說(shuō)和電影里那么多牛氣沖天的機器人,生活中卻一個(gè)也沒(méi)有呢?
別說(shuō)對著(zhù)人類(lèi)突突突的機器人軍團了,想花錢(qián)找個(gè)機器人管家替我擦桌子洗碗整理家務(wù),都常常被科普“想太多”……而這都源于機器人的自我意識缺失。它只能完成人類(lèi)告訴它的事情,并且還十分費勁。至于強智能系統需要的自我模擬、自我建模,更是遙遠的天方夜譚。
怎么現在突然就說(shuō)機器人要產(chǎn)生自主意識了?乍聽(tīng)之下簡(jiǎn)直震驚我全家,接下來(lái)是不是該組織人類(lèi)反抗軍了?咳咳,抱歉剛看完《終結者》后遺癥有點(diǎn)大……關(guān)于機器人覺(jué)醒,或許要從其最新的成果——仿生群體粒子機器人說(shuō)起。
和人們想象中擁有機械身體、超智慧大腦的人形智能機器人不同,Hod Lipson所說(shuō)的機器意識,很可能最先從粒子機器人集群中誕生。
今年三月,hod lipson團隊發(fā)明的新興粒子機器人登上了《自然》雜志封面,讓“機器的自我意識”出現了松動(dòng),這一發(fā)現也在學(xué)界引起了軒然大波。其創(chuàng )新性主要來(lái)自?xún)蓚€(gè)方面:一是這些由“粒子”(即圓盤(pán)狀單元)組成的機械系統,不需要人類(lèi)的強集中控制,也能依靠自主性伸縮和隨機運動(dòng)完成復雜的任務(wù);二是這種系統很可能產(chǎn)生覺(jué)知,通過(guò)思考“我為什么在這里”進(jìn)而做出自我模擬、自我復制,從而可以在設備故障、特殊作業(yè)環(huán)境中順利完成任務(wù)。
聽(tīng)到這里,大家可能會(huì )在松一口氣的同時(shí)也干到了一絲迷惑:
這種機器人系統看起來(lái)和草履蟲(chóng)也差不太多,并不是很有威脅的樣子,那么傳說(shuō)中的“黑客帝國”到底會(huì )不會(huì )來(lái)呢?
我們知道,人工智能研究是建立在人腦如何工作的基礎之上的,而意識則是其中十分高級的一環(huán)。粒子機器人集群的進(jìn)步,說(shuō)明機器人學(xué)來(lái)到了哪個(gè)階段呢?
首先,在擔憂(yōu)機器威脅人類(lèi)社會(huì )之前,我們會(huì )率先品嘗到技術(shù)進(jìn)步帶來(lái)的甜蜜時(shí)刻。
之所以這么說(shuō),是因為前面的發(fā)現,正在將機器能夠模擬的心智能力推向更高維度。根據目前的科學(xué)研究,人類(lèi)的心智主要包括四大能力,其中視覺(jué)感知和推理能力,已經(jīng)被神經(jīng)網(wǎng)絡(luò )模型復制到了現實(shí)世界,計算機視覺(jué)、AI大腦正在成為新的生產(chǎn)力引擎。
而情感和社會(huì )關(guān)系,比如不同文化圈的人類(lèi)能夠感受到愛(ài)恨悲喜等相通的感情,能夠根據合作、競爭、友誼、家人等不同的社會(huì )關(guān)系來(lái)產(chǎn)生動(dòng)機并預測行為。
后面兩種能力才是機器人和科研人員苦求而不得的高級智能。機器如果擁有它們,會(huì )發(fā)生什么呢?至少目光所能及的未來(lái)很值得心動(dòng)。
(霍德·立普森(Hod Lipson)教授 photo by Hatnim Lee)
以粒子機器人為例,這種非常初級的“極可能擁有意識”的機器系統,能夠帶來(lái)的社會(huì )價(jià)值都是巨大的。
一方面,機器人如果能夠模擬其它的人類(lèi)和機器人,那也就會(huì )啟動(dòng)機器人之間的社會(huì )行為,進(jìn)而可以認知環(huán)境、預測未來(lái)并主動(dòng)采取行動(dòng)。
如果機器某個(gè)零件壞了,它就可以自己修復,這使得機器的利用效率和適用范圍大大提升。比如工廠(chǎng)里的機器、家里的吸塵器等,一些部件壞掉就會(huì )讓整個(gè)機器無(wú)法運作。未來(lái)由這些納米級機器人組成的機器,就能夠不斷循環(huán),單個(gè)足見(jiàn)壞掉之后依然可以使用,幫助使用者不斷節省成本。
另一方面,能夠為未來(lái)科技打開(kāi)新的想象空間與可能性。比如太空科技,生物醫藥等,隨著(zhù)粒子機器人技術(shù)向毫米、納米級演進(jìn),未來(lái)應用到人類(lèi)的血管中幫助處理病灶,亦或是在月球上機器人可以根據任務(wù)的需求改變自身的形態(tài)。任何自動(dòng)化智能系統,包括在技術(shù)瓶頸中苦尋出路的無(wú)人駕駛等,一旦它們能夠有自我意識,從毀壞中恢復,就能夠更快地改進(jìn),這都是并不遙遠得機器智能未來(lái)。
接下來(lái),我們再來(lái)聊聊第二個(gè)問(wèn)題——如果機器有意識,它一定會(huì )是惡的嗎?
在回答這個(gè)問(wèn)題之前,我們不妨先聊聊計算機的進(jìn)步。眾所周知,今天的計算機已經(jīng)比上個(gè)世紀更加聰明且強大,但類(lèi)似《2001太空漫游》等科幻電影中大型主機反叛人類(lèi)的擔憂(yōu),卻越來(lái)越少了。今天,我們也許會(huì )擔心網(wǎng)絡(luò )漏洞所引發(fā)的混亂或是人為惡意制造的病毒,卻很少會(huì )想象出現什么電腦殺手或秘密組織。
人類(lèi)為什么對智能機器人這么緊張呢?除了在智力、能力、體力上對人類(lèi)個(gè)體的碾壓之外,恐怕一個(gè)很大的恐懼來(lái)自于未知與不確定性:一旦機器擁有獨立的人格和認知,會(huì )不會(huì )傷害人類(lèi)呢?
問(wèn)題來(lái)了,為什么機器人想要這么做呢?為了更多的服務(wù)器資源,還是傷害流水線(xiàn)工人會(huì )使其得到快感?在沒(méi)有足夠“獎勵”的前提下機器會(huì )自己變壞嗎?顯然還要問(wèn)人類(lèi)自己。
很多人認為,機器人覺(jué)醒會(huì )像《西部世界》中女主角德洛瑞絲一樣,意識到自己是被人類(lèi)奴役和玩弄的,進(jìn)而開(kāi)始復仇。即使這一天真的會(huì )到來(lái),我想以目前人類(lèi)與機器人之間的關(guān)系,也不至于會(huì )變得劍拔弩張吧。
哪個(gè)“變態(tài)科學(xué)家”會(huì )甘愿冒天下之大不韙,丟給智能機器這樣“反人類(lèi)”的數據集,而不擔心先被機器虐的是自己呢?
事實(shí)上,像波士頓動(dòng)力那樣動(dòng)輒對機器人拳打腳踢,只是為了訓練其適應性和靈活性的必要方式。就連這樣的操作,也因為人類(lèi)自身的同理心和同情心,而變得越來(lái)越少了。讓AI在仿真環(huán)境里打游戲、讓機械手臂玩魔方、去山坡上溜機械狗……都是時(shí)下訓練的新方式,真有覺(jué)醒那一天,AI應該也給人類(lèi)造一個(gè)沙盒游戲場(chǎng)快樂(lè )玩耍“投桃報李”才對嘛。
再進(jìn)一步,如果出現了這樣的人類(lèi)“恐怖分子”,比如利用AI行騙、犯罪,將機器人改造成爆炸裝置之類(lèi)的,在技術(shù)上能否及時(shí)發(fā)現并遏制呢?
對于這一點(diǎn),智能科學(xué)正在向網(wǎng)絡(luò )安全界學(xué)習,引入一些成熟的防范機制,比如人工智能開(kāi)發(fā)中的紅色團隊、人工智能系統中的正式驗證,以及負責任地披露人工智能漏洞等等。
去年,由OpenAI、牛津大學(xué)、劍橋大學(xué)等14家機構和高校共同發(fā)布的《人工智能惡意使用》報告中,也進(jìn)一步號召人工智能領(lǐng)域形成規范和道德框架。
在這樣道德、技術(shù)、法律等多方面的做功下,機器人的自主意識還會(huì )對人類(lèi)帶來(lái)危險嗎?嚴謹如Hod Lipson也只是回答——沒(méi)那么簡(jiǎn)單。
“應該說(shuō)任何這樣的問(wèn)題都沒(méi)有一個(gè)簡(jiǎn)單的答案,但是我們必須走上這樣一個(gè)歷程,并且一步一步的往前走,我們現在要公開(kāi)討論它應該可以做些什么,不可以做些什么,要不斷地進(jìn)行研究。”
(Hod Lipson在接受采訪(fǎng))
對技術(shù)的擔憂(yōu),就如同初次觸摸火種的驚懼,永恒地懸在人類(lèi)心頭。今天絕大多數人提到AI,已經(jīng)沒(méi)有了初見(jiàn)深藍和阿爾法狗的恐懼,開(kāi)始重點(diǎn)關(guān)注其如何為經(jīng)濟釋放能量。
從這個(gè)角度看,智能機器人的“黃金時(shí)代”還沒(méi)能到來(lái),它正如所有“前輩們”一樣,經(jīng)歷著(zhù)幻想、質(zhì)疑、混沌。所以,在這個(gè)技術(shù)尚且十分初級的階段,來(lái)探討其覺(jué)醒后是善是惡,似乎是一件很形而上的事情,但關(guān)乎我們每個(gè)人的未來(lái),也孕育在這樣與技術(shù)進(jìn)步相勾連的思索與拷問(wèn)之間。
客服熱線(xiàn):0551-69106578 業(yè)務(wù)咨詢(xún):0551-69106578 郵箱:2268263116@qq.com
Copyright (c) 2012 機電產(chǎn)品交易網(wǎng) . 版權所有 皖I(lǐng)CP備12004440號-2