對(duì)人類來說,我們?cè)陔娪袄锍?吹降慕┦屯庑侨丝赡懿⒉皇鞘裁凑嬲嬖诘耐{,但我們卻不能忽視另一種經(jīng)常在電影里看到的反派人物,那就是有意識(shí)的機(jī)器人。他們的到來可能只是時(shí)間問題。但是,當(dāng)真正的有意識(shí)機(jī)器人出現(xiàn)時(shí),世界會(huì)變成什么樣呢?到那時(shí),人類還有生存空間嗎?
近幾年,人工智能的研究領(lǐng)域在經(jīng)歷著一場(chǎng)革命?,F(xiàn)在,人工智能系統(tǒng)可以在圍棋上勝過人類,在識(shí)別人臉,安全駕駛等領(lǐng)域都有非凡的成果。大多數(shù)研究人員認(rèn)為,真正有意識(shí)的機(jī)器人(不只是運(yùn)行固定程序程序,而是有情感和自我意識(shí)的機(jī)器)或許還有幾十年的時(shí)間就會(huì)出現(xiàn)。機(jī)器需要學(xué)習(xí)推理能力,和強(qiáng)大的泛化能力,才能學(xué)習(xí)更多的知識(shí)。只有機(jī)器擁有這樣的能力后,人工智能才能達(dá)到掌握意識(shí)所需的復(fù)雜程度。
但一些人認(rèn)為,并不用幾十年那么久,我們或許很快就能看到有意識(shí)的機(jī)器人出現(xiàn)。
德克薩斯大學(xué)的計(jì)算機(jī)科學(xué)家賈斯汀哈特說:“人們認(rèn)為自我意識(shí)將成為人工智能的終極游戲,而實(shí)際上,沒有任何的科學(xué)追求是從終極目標(biāo)入手來進(jìn)行研究的。”賈斯汀和其他研究人員已經(jīng)在研究具有基本思想的機(jī)器人。他們?cè)O(shè)計(jì)了如同新生嬰兒一樣的機(jī)器人,機(jī)器人能夠?qū)W習(xí)理解自己的身體構(gòu)造,看到新的事物會(huì)呀呀亂叫,而當(dāng)人類碰到它時(shí)機(jī)器人會(huì)哭泣,這都像新生嬰兒的行為。這些機(jī)器人已經(jīng)開始探索自己的世界。
機(jī)器人沒有內(nèi)在的情感體驗(yàn),它們不會(huì)因?yàn)榈匕逋系酶蓛舳院溃膊粫?huì)因?yàn)樯眢w流過120伏特的電流而開心。但是,機(jī)器人現(xiàn)在可以學(xué)習(xí)一些類似人類擁有的品質(zhì),包括同理心、適應(yīng)能力和進(jìn)取心。
不再沉迷于創(chuàng)造很酷的機(jī)器人,研究人員開始研究擁有控制論(Cybernetic,控制論是研究各類系統(tǒng)的調(diào)節(jié)和控制規(guī)律的科學(xué))系統(tǒng)的機(jī)器人,試圖解決機(jī)器學(xué)習(xí)系統(tǒng)長期以來的缺陷。機(jī)器學(xué)習(xí)系統(tǒng)或許功能很強(qiáng)大,但它們卻是不透明的。它們的工作原理就是將輸入關(guān)聯(lián)到輸出,這就像在“A”和“B”欄中做匹配連線一樣,人工智能系統(tǒng)基本記住了這些關(guān)聯(lián)關(guān)系,他們給出的答案背后沒有更深層次的邏輯。這一直是機(jī)器學(xué)習(xí)系統(tǒng)存在的問題。
人類是很難讀懂的物種。我們花了大量的時(shí)間來分析自己和他人,可以說,這是我們的意識(shí)思維在起作用。如果機(jī)器也有思想,它們可能就不會(huì)那么神秘了,如果我們想要了解機(jī)器,就可以直接問他們。
位于紐約州特洛伊的倫斯勒理工學(xué)院的人工智能研究人員SelmerBringsjord說,“如果我們能理解一些人類大腦意識(shí)的結(jié)構(gòu),我們就能夠讓機(jī)器學(xué)習(xí)一些有趣的能力。”盡管科幻小說會(huì)讓人類懼怕有意識(shí)的機(jī)器人,但其實(shí),即使是暫時(shí)無意識(shí)的機(jī)器人,我們也需要小心謹(jǐn)慎,而有意識(shí)的機(jī)器人則可能會(huì)成為我們的盟友。
如今,自動(dòng)駕駛汽車擁有一些最先進(jìn)的人工智能系統(tǒng)。它們決定車輛駛向何方,決定何時(shí)剎車,通過持續(xù)的雷達(dá)和激光探測(cè)來收集數(shù)據(jù),并將數(shù)據(jù)輸入到算法中。但自動(dòng)駕駛技術(shù)希望在車輛駕駛時(shí),車輛能自動(dòng)演習(xí)和自主防御突發(fā)事故,這就是與意識(shí)相關(guān)的能力。
巴塞羅那龐貝大學(xué)的神經(jīng)學(xué)家PaulVerschure說,“自動(dòng)駕駛汽車需要推測(cè)出附近的自動(dòng)駕駛車輛下一步的行為。”
為了展示這一內(nèi)在原理,哥倫比亞大學(xué)的工程學(xué)教授HodLipson(HodLipson教授同時(shí)也是一本關(guān)于自動(dòng)駕駛汽車的書的合著者)和韓國首爾世宗大學(xué)的kyung-joongKim進(jìn)行了一個(gè)實(shí)驗(yàn),研發(fā)了一個(gè)“發(fā)瘋”的機(jī)器人司機(jī)。在實(shí)驗(yàn)中,有一個(gè)小型的圓形機(jī)器人(大約相當(dāng)于冰球的大小)按照自己的運(yùn)動(dòng)邏輯在一個(gè)環(huán)形軌道上移動(dòng)。然后,這個(gè)“發(fā)瘋”的機(jī)器人司機(jī)總是要在第一個(gè)圓形機(jī)器人啟動(dòng)時(shí)攔截它,因此“發(fā)瘋”機(jī)器人就無法按照固定的路線運(yùn)動(dòng),它必須預(yù)測(cè)到第一個(gè)圓形機(jī)器人的運(yùn)行軌跡。
通過模仿達(dá)爾文進(jìn)化理論,Lipson和Kim設(shè)計(jì)了一種攔截策略。Lipson說:“實(shí)驗(yàn)的機(jī)器人基本上已經(jīng)發(fā)展了一個(gè)行為者的大腦,也許不夠完美,但已經(jīng)足夠讓它預(yù)測(cè)對(duì)方的行為了。”
Lipson的團(tuán)隊(duì)還設(shè)計(jì)了另外一個(gè)機(jī)器人,這個(gè)機(jī)器人可以對(duì)自己的身體構(gòu)造進(jìn)行學(xué)習(xí)理解。這是一只四足蜘蛛的機(jī)器人,它的大小約相當(dāng)于一只大狼蛛的大小。當(dāng)蜘蛛機(jī)器人啟動(dòng)后,其內(nèi)部程序沒有記錄任何關(guān)于自身的信息。Lipson說:“它不知道它的發(fā)動(dòng)機(jī)是怎樣的構(gòu)造,也不知道身體的運(yùn)動(dòng)邏輯是如何設(shè)計(jì)的。”但它有學(xué)習(xí)的能力,它能觀察到自己發(fā)生的所有動(dòng)作。例如,它能觀察自己是如何操作某個(gè)馬達(dá)來讓一條腿彎曲的。Lipson說:“就像一個(gè)嬰兒一樣,嬰兒是會(huì)亂動(dòng)的。”“它以一種隨機(jī)的方式移動(dòng)馬達(dá)。”
四天后,這個(gè)蜘蛛機(jī)器人已經(jīng)意識(shí)到它有四條“腿”(馬達(dá)),并弄清楚了如何協(xié)調(diào)和移動(dòng)才能讓自己滑過地板。當(dāng)Lipson卸掉其中一個(gè)馬達(dá)時(shí),機(jī)器人能夠意識(shí)到自己現(xiàn)在只有三條腿,因此原來的行為不會(huì)再產(chǎn)生預(yù)期的效果。
Lipson說:“我認(rèn)為這個(gè)機(jī)器人有一種非常原始的自我意識(shí)。”這是另一種類似人類的能力,是研究人員想要建立在人工智能的基礎(chǔ)上的。AlphaGo之所以能在圍棋之戰(zhàn)中脫穎而出,是因?yàn)槿祟愌芯咳藛T引導(dǎo)機(jī)器贏得比賽。機(jī)器自己不能自己定義問題,因?yàn)槎x問題通常是很困難的部分。
一位神經(jīng)學(xué)家RyotaKanai和一家位于東京的創(chuàng)業(yè)公司的創(chuàng)始人即將發(fā)表一篇論文——“認(rèn)知科學(xué)的趨勢(shì)”,他們?cè)谡撐闹杏懻摿巳绾谓o機(jī)器內(nèi)在的動(dòng)力。在一次演示中,他和他的同事展示了在虛擬環(huán)境中駕駛一輛汽車Agent,Agent需要攀爬一座陡峭的山,而這座山太過陡峭,只有在助跑的情況下才能爬上去。Aagent收到命令要爬上山時(shí),它會(huì)想出辦法。在接到這個(gè)命令之前,Agent就一直閑置著。
然后,Kanai的團(tuán)隊(duì)給這些虛擬的Agent增加了“好奇心”機(jī)制。Agent勘測(cè)了山的地形,將登山視為一個(gè)待解決的問題,并且在沒有任何指示的情況下就找到了如何攀爬的方法。
Kanai說:“我們沒有給Agent設(shè)定任何目標(biāo)。”“Agent只是在自己探索環(huán)境,通過對(duì)自身行為的后果做出預(yù)測(cè),來了解自己的處境。”關(guān)鍵是要給機(jī)器人足夠的內(nèi)在激勵(lì),讓它們更好地解決問題,而不是讓它們選擇放棄,離開實(shí)驗(yàn)室。機(jī)器可以像人類一樣固執(zhí)。JoschaBach是哈佛大學(xué)的人工智能研究員,他把虛擬機(jī)器人放進(jìn)了“Minecraft”——Minecraft里堆滿了美味但有毒的蘑菇,Bach希望Agent能自己學(xué)會(huì)避免犯錯(cuò)誤,如同在Minecraft里一樣,如果機(jī)器不知道避開有毒的蘑菇,就會(huì)吃下毒蘑菇而中毒。
Bach說:“如同人類一樣,此刻的行為對(duì)未來會(huì)造成什么影響,機(jī)器并不在乎。”他們可能只是覺得這些蘑菇非常好吃,所以必須向機(jī)器灌輸一種天生的厭惡感。從某種意義上說,機(jī)器必須學(xué)會(huì)價(jià)值觀,而不僅僅是理解目標(biāo)。
除了自我意識(shí)和自我激勵(lì)之外,意識(shí)的一個(gè)關(guān)鍵功能是集中注意力。在人工智能研究領(lǐng)域,選擇性注意力一直是一個(gè)重要領(lǐng)域,AlphaGo的創(chuàng)造人谷歌DeepMind團(tuán)隊(duì)在這一領(lǐng)域有深入研究。
“意識(shí)是一種注意力過濾器。”孟菲斯大學(xué)計(jì)算機(jī)科學(xué)教授斯坦利富蘭克林說到。在去年發(fā)表在生物學(xué)上的認(rèn)知結(jié)構(gòu)雜志上的一篇論文中,富蘭克林和他的同事們回顧了他們創(chuàng)造的一個(gè)名為LIDA的人工智能系統(tǒng),這一系統(tǒng)通過競(jìng)爭機(jī)制來選擇出需要集中精力的地方,算法采納了20世紀(jì)80年代的神經(jīng)學(xué)家BernardBaars所提出的方法。競(jìng)爭過程中機(jī)器系統(tǒng)會(huì)觀察一些有趣的刺激物——響亮的、明亮的、奇異的刺激物,然后這些刺激物爭奪主導(dǎo)地位。在競(jìng)爭中勝利的刺激物,決定了人們的精神集中在哪里,隨后通知機(jī)器系統(tǒng)的“大腦”,告知“大腦”注意力應(yīng)該放在哪里,隨之告知更多的大腦功能,包括控制思考和運(yùn)動(dòng)的部分。感知、注意力和動(dòng)作的循環(huán)每秒鐘重復(fù)5到10次。
LIDA的第一個(gè)版本是美國海軍的工作匹配服務(wù)器。它會(huì)閱讀郵件,注意力集中在切題的郵件上——涉及求職者的興趣、工作的難度和政府官僚機(jī)構(gòu)的工作要求這一些郵件。
從那以后,富蘭克林的團(tuán)隊(duì)就利用這個(gè)系統(tǒng)來模擬動(dòng)物的大腦,特別是那些每次只專注于一件事的行為習(xí)慣。例如,LIDA和人類一樣容易出現(xiàn)一種奇怪的心理現(xiàn)象,即“注意力盲點(diǎn)(attentionblink)”——當(dāng)某件事吸引了你的注意力時(shí),你會(huì)在大約半秒的時(shí)間里忘記其他事情。這個(gè)認(rèn)知盲點(diǎn)取決于很多因素,而LIDA則表現(xiàn)出類似人類的反應(yīng)。
一位芬蘭的人工智能研究人員PenttiHaikonen,根據(jù)類似的原則建立了一個(gè)名為XCR-1的機(jī)器人。Haikonen認(rèn)為,他創(chuàng)造的XCR-1能夠擁有真正的主觀體驗(yàn)和基本的情感。
XCR-1機(jī)器人擁有聯(lián)想的能力,這與我們大腦中的神經(jīng)元非常相似。當(dāng)我們展示了給XCR-1機(jī)器人一個(gè)綠色球,并對(duì)它說出“綠色”這個(gè)詞,那么XCR-1機(jī)器人的視覺和聽覺模塊會(huì)做出反應(yīng),將看到的綠色球和“綠色”這個(gè)詞聯(lián)系起來。如果Haikonen再次說“綠色”,那么XCR-1機(jī)器人的聽覺模塊將會(huì)做出反應(yīng),通過記錄的聯(lián)系,視覺模塊也會(huì)“回憶”起來“綠色”對(duì)應(yīng)的樣子,就如同它真正聽到了這個(gè)單詞,看到了它的顏色一樣。
相反,如果機(jī)器人看到了綠色,它的聽覺模塊會(huì)做出反應(yīng),哪怕它沒有真正“說出”這個(gè)詞。簡而言之,機(jī)器人會(huì)產(chǎn)生一種聯(lián)覺(synesthesia)。
Haikonen說:“如果我們看到一個(gè)球,我們可能會(huì)對(duì)自己說:喔,那是一個(gè)球!在那一刻,我們的感覺就如同我們真正聽到了這個(gè)詞一樣,但其實(shí)我們只是看到了它。”“xcr-1也是一樣的。”
當(dāng)聽覺和視覺模塊發(fā)生沖突時(shí),事情會(huì)變得有趣。例如,當(dāng)視覺模塊看到綠色,而聽覺模塊聽到“藍(lán)色”時(shí),如果這時(shí)是聽覺模塊占了上風(fēng),那么整個(gè)系統(tǒng)就會(huì)把注意力轉(zhuǎn)移到它聽到的單詞上——“藍(lán)色”,而忽略了它所看到的顏色——綠色。機(jī)器人有一種簡單的意識(shí)流,它由一種瞬間支配的知覺組成:“綠色”、“球”、“藍(lán)色”等等。當(dāng)Haikonen把聽覺模塊連接到一個(gè)語音引擎時(shí),機(jī)器人會(huì)自己默默對(duì)自己說出它所看到和感覺的一切。
Haikonen還將振動(dòng)設(shè)為機(jī)器人的“痛點(diǎn)”,它可以搶占其他感官作為輸入,占據(jù)機(jī)器人的注意力。在一次演示中,Haikonen輕拍了機(jī)器人讓其針對(duì),然后機(jī)器人就突然地說:“我受傷了”。
Haikonen說:“因?yàn)槟承┰?,有些人?huì)受到情感上的困,對(duì)這些作品并不感冒,認(rèn)為這是不好的機(jī)器人。”
基于早期的努力,研究人員將開發(fā)出更逼真的機(jī)器人。我們可以看到意識(shí)系統(tǒng)的連續(xù)統(tǒng)一體,就像自然界中存在的一樣,從單細(xì)胞生物、狗到黑猩猩,再到人類和其他物種。這項(xiàng)技術(shù)的逐步發(fā)展是好的,因?yàn)樗o了我們時(shí)間來適應(yīng):未來有一天,我們不再是地球上唯一的先進(jìn)生物。
在很長一段時(shí)間里,我們創(chuàng)造的人工智能機(jī)器很脆弱,與其說它們會(huì)威脅到人類,不如說是我們創(chuàng)造出來的新寵物。如何對(duì)待它們,將取決于我們是否意識(shí)到他們是有意識(shí)的,機(jī)器是否有能力忍受痛苦。
康涅狄格大學(xué)的哲學(xué)家蘇珊施耐德說:“我們之所以重視非人類的動(dòng)物,是因?yàn)槲覀冊(cè)谒麄兩砩峡吹搅艘庾R(shí)的存在,就像人類自己也是基于我們自己的意識(shí)存在的。”蘇珊施耐德研究人工智能的含義。事實(shí)上,她認(rèn)為我們故意不去創(chuàng)造有意識(shí)的機(jī)器,以避免它所造成的道德困境。
施耐德說,“如果你在創(chuàng)造有意識(shí)的機(jī)器人系統(tǒng),讓它們?yōu)槲覀児ぷ鳎@就很像是在實(shí)行奴隸制度。”出于同樣的原因,如果我們不賦予先進(jìn)的機(jī)器人感知能力,機(jī)器人對(duì)人類的威脅可能是更嚴(yán)重的,因?yàn)闆]有意識(shí)的機(jī)器人不會(huì)自己思考,它們無法思考出任何理由要和人類站在同一立場(chǎng),承認(rèn)并珍視人類。
從我們目前所看到的情況來看,有意識(shí)的機(jī)器將會(huì)繼承人類的弱點(diǎn)。如果機(jī)器人必須預(yù)測(cè)其他機(jī)器人的行為,它們就會(huì)把彼此當(dāng)作有組織的生物來對(duì)待。像我們一樣,他們可能會(huì)開始認(rèn)識(shí)一些無生命的物體:雕塑動(dòng)物、雕像和風(fēng)。
去年,北卡羅來納大學(xué)的社會(huì)心理學(xué)家?guī)焯馗窭缀虳anielWegner在他們的“心靈俱樂部”中提出,這種本能是宗教的起源。Verschure說:“我期待電影中出現(xiàn)機(jī)器人自己發(fā)展的宗教,因?yàn)槲覀円呀?jīng)為它們?cè)O(shè)計(jì)了意識(shí)偏好,讓它們成為社會(huì)的一部分。”“但他們的意識(shí)偏好可能先起作用了。”
這些機(jī)器將大大超出我們解決問題的能力,但并非所有事情都是可以解決的問題。他們可能會(huì)沉迷于自己的意識(shí)體驗(yàn)中,隨著機(jī)器人感官感知范圍的擴(kuò)大,他們會(huì)看到一些人類并不相信的東西。
Lipson說:“我不認(rèn)為未來的機(jī)器人物種會(huì)像我們想的那樣冷酷無情。”“他們可能會(huì)有我們永遠(yuǎn)無法理解的音樂和詩歌。”