簡單解釋一下“NBIC”最后一個縮寫字母“C”,即認知科學。在這里,我們必須區(qū)分清楚什么是已經(jīng)成為現(xiàn)實的所謂低級人工智能(AI),什么是依舊存在于幻想之中的高級人工智能(在我看來永遠都無法實現(xiàn),而大部分人工智能專家和我有著不一樣的觀點)。粗略地說,高級人工智能是一個高級智能機器所具有的智能,這個機器不僅能夠模仿人類智慧的外在形式,而且確確實實具備兩種到目前為止有且僅有人類具備的東西(或者說至少只存在于智商較高的生物體中,比如猿和高等動物可能也具備這兩樣,只不過其水平較人類低一些):自我意識和情感——愛恨、恐懼、痛苦和快樂等。
低級人工智能僅停留在解決問題的層次上。它可以模仿人類的智慧,但僅僅是機械模仿,是純粹對其外在形式的模仿。到目前為止,仍然沒有電腦能通過著名的“圖靈測試”,這就是證明。圖靈測試是英國數(shù)學家設計的,在實驗中,一個人與另一個他不知道是計算機還是人類的“隱藏”實體進行對話。計算機可以模仿人類的對話,但充其量就是一個糟糕的精神分析學家,聽到“媽媽”這個詞,就對您說“您的媽媽,哦,當然,您可以隨意聯(lián)想任何東西”諸如此類的話。對話進行一段時間之后,電腦顯得越來越古怪,越來越愚蠢(必須承認),即使是最天真的參與者也會意識到他是在和一臺機器進行對話,從而結(jié)束這個測試。
盡管如此,大多數(shù)認知科學家相信,終有一天我們會成功制造出類似于人腦的機器,電腦自己可能會有意識,還可以產(chǎn)生情感,然而很多生物學家認為必須擁有活的身體才能擁有這兩個屬性。我們先驗地傾向于支持生物學家的觀點,除了少數(shù)高級人工智能的擁護者。他們以唯物主義一元論為根據(jù),稱大腦本身只是一臺機器,和其他機器沒有區(qū)別,只是更復雜而已,不過是由有機材料構(gòu)成,總有一天我們可以完完全全地復制出來,甚至將人與機器結(jié)合。這種結(jié)合技術(shù)正在成為現(xiàn)實,比如人工心臟,它確實是一個機器,但其表面包裹著生物組織。
因此他們產(chǎn)生了以下想法(在我看來是幻想):某一天智力和記憶也許能夠存儲在一種U盤里(或者幾十年之后出現(xiàn)的類似產(chǎn)品),從而制造出真正的智能機器,也就是說,有自我意識和情感的機器。我們可以看到,一個從低級人工智能悄悄走向高級人工智能的烏托邦式幻想就這樣出現(xiàn)在數(shù)學家、計算機專家、唯物主義論者的世界里。因為,機器現(xiàn)在可以做到,至少他們這么認為,人類可以做的幾乎一切事情:它們是自主的,其自主程度差不多和人類一樣,它們可以做出決定、學習、改正自己的錯誤、復制,很快就(變成烏托邦式幻想)會成功通過圖靈測試。因此,庫茲韋爾提出,人類可以與這些新的實體結(jié)合,從而實現(xiàn)長生不老。
我敢斷言,他們突然對唯物主義哲學重新感興趣,會遭到很多嚴肅的反對。
當然,如果我們只是簡單地從“行為主義”的觀點來看,僅僅從“外部”來判斷這些機器,他們與真實的人類之間的區(qū)別可能有一天會難以分辨,甚至根本無從分辨。雖然目前還不是這樣的情況,也不是沒有可能有一臺機器會在某一天成功通過圖靈測試。但是,什么能夠向我們證明這些機器具有“真正”的自我意識,有“真正的”情感——愛恨、歡樂與痛苦?機器模仿人類模仿到完美無缺也不能證明它不只是一個復制品。除非陷入被害妄想,否則聲稱這些機器有情感,但是它們卻無法證明這一點實在很荒謬。盡管這些機器可以完美地模仿生命,它們也并沒有生命,還比不過一只不知道自己在說什么的鸚鵡。有人說,大腦本身只是一臺機器,剩下的是存在于大腦外部的思維。有一點需要弄清楚:必須要有一個大腦,還得是一個聰明的大腦,才能像牛頓一樣發(fā)現(xiàn)萬有引力。這個定律并不存在于我們的頭腦中,它是被我們發(fā)現(xiàn)的,不是由我們發(fā)明或者創(chuàng)造出的,而是確確實實存在的。再比如,我們在童年學習的著名的三角形平等定律:數(shù)學定律需要大腦去理解發(fā)現(xiàn),但沒有大腦它們還是存在,因此在我看來二元論似乎無法否認。
不過,我希望有人可以從嚴格的一元論和唯物論的角度向我解釋左派的大腦和右派的大腦之間有什么不同,或者,做加法時犯錯的大腦和片刻之后反應過來糾正自己錯誤的同一個大腦之間有什么不同。我犯了一個錯誤,我去糾正它,難道這一前一后我的大腦不是同一個“生物性”存在嗎?我認為,人類與機器的不同存在于人的精神生活里,因此,行為主義方法論顧名思義還停留在外在行為上,所以看不到兩者的不同。
讓我們丟棄這個沒有盡頭的形而上的爭論,重新回到低級人工智能上來,它的好處跟唯物主義烏托邦(對這個我一點都不相信)無關(guān),只跟存在的現(xiàn)實有關(guān)。
其實,在20世紀初,沒有誰會打賭,哪怕只賭一分錢,說一臺機器能夠在國際象棋比賽中擊敗世界上最好的選手。這本來似乎是一個不太好笑的玩笑,幼稚的夢想,甚至可以被寫進儒勒·凡爾納的科幻小說??墒?hellip;…自從這臺名為“深藍”的電腦在國際象棋比賽中奪得了世界冠軍,我們知道了這是可能的?,F(xiàn)在,除此之外,您電腦上的任何應用程序或者低配置智能手機的程序都能夠做同樣的事情!還有更多的例子表明低級人工智能領域在過去幾年取得了非常大的進步。IBM設計的計算機取了一個叫沃森的名字,在2011年高調(diào)地參加了著名電視競技節(jié)目《危險邊緣》——在美國風靡一時的節(jié)目,并打敗了兩個冠軍。對一臺機器來說,這是一個令人難以置信的挑戰(zhàn):找到對應于自然語言編寫的答案的問題(問題是用英語描述的)。通過使用Hadoop的軟件(大數(shù)據(jù)處理軟件),沃森已經(jīng)能夠全速處理兩億頁的文字,這讓它得以戰(zhàn)勝其競爭對手——人類。有必要說明,它不僅能正確地“理解”問題,而且可以在幾秒鐘內(nèi)讀完所有的文章,這對人類來說要花費幾輩子的時間,對一個提出的問題,它可以提煉出更多合適的答案(想象一下這個挑戰(zhàn)有多艱巨:找到主持人給的答案背后的問題)。它的表現(xiàn)簡直令人嘆為觀止。盡管我們?nèi)匀幌嘈?,高級人工智能只是一個烏托邦,但低級人工智能目前也已經(jīng)遠遠超過人類的智能,帶來許多現(xiàn)實問題。就像我提到的一封公開信中所講的一樣,這封信是由埃隆·馬斯克、史蒂芬·霍金和比爾·蓋茨簽署的請愿書,旨在反對制造和使用著名的“殺手機器人”軍隊。這份請愿書涉及世界上參與這項研究的上千位研究人員。
這三位對科學和新技術(shù)滿懷無限激情的人提醒我們關(guān)注無人駕駛飛機和遠程操控導彈的危險。它們,通過遙控,用人來操控一些所謂的“高智商”的殺手機器人,能夠自行決定是否“按下按鈕”來結(jié)束一個人的生命。在信中,三位科學家或者說企業(yè)家提出了贊成和反對這些機器人的論據(jù)。他們承認,機器人可以在戰(zhàn)爭中投入使用從而代替人類,避免不必要的損失。但他們也說,危險是巨大的,大于它給人類帶來的益處:
機器人的制作成本低廉,不需要稀有材料,這和原子彈不同,這種武器將很快被普及。不久,我們就可以在黑市上發(fā)現(xiàn)它,恐怖分子可以輕而易舉獲得它,獨裁者可以通過它來奴役本國人民,軍閥統(tǒng)治者可以通過它來進行種族滅絕,等等。
這就是我們的三個同類發(fā)出的警告,值得一聽。
首先,讓我們來聽一下比爾·蓋茨先生的原話:“我是對超級智能的發(fā)展保持擔憂的人之一。目前,那些在我們的位置替代我們勞動、并完成許多任務的機器并不是超級智能。如果我們能夠很好地進行管理,像這樣的發(fā)展會變得越來越好。然而幾十年之后,智能會帶來新的問題。我十分同意埃隆·馬斯克的觀點,但不明白為什么目前人們對這個問題并不擔心。”
史蒂芬·霍金強調(diào)道:“成功地創(chuàng)造出人工智能是人類歷史上偉大的進步。但,這極有可能是人類文明最后的進步。”
為什么是最后的呢?因為所有的一切都是根據(jù)達爾文的進化論選擇而來的,智力也是,但在霍金的假設里,機器存在想要繼續(xù)活下去的欲望,所以要消滅一切對它生命構(gòu)成威脅的事物。既然存在這些智商超群的機器人,就像科幻電影里描繪的那樣,能夠在幾秒鐘之內(nèi)讀取百萬頁,知道我們所有的信息,知道只有我們?nèi)祟愑心芰⑺麄兊碾娫辞袛?,因此自然而然,我們將會成為他們的頭號敵人。一旦機器人控制了所有的信息服務器,也就是武器,它們將會變得有能力摧毀我們。
最后,我們來看看特斯拉公司CEO、絕頂聰明的埃隆·馬斯克說了什么:“我認為我們應該非常小心謹慎。如果讓我猜測什么最有可能對我們的生存造成威脅,我會說可能是人工智能。我越來越傾向于人工智能應該被監(jiān)管這個觀點,包括國家層面和國際層面上的,以確保我們沒有在干蠢事。開發(fā)人工智能,相當于在召喚惡魔。”
馬斯克言行合一,出資1000萬美元給一個致力于人工智能領域安全性研究的基金,這告訴我們,制定人工智能的監(jiān)管規(guī)范對人類自身的安全來說至關(guān)重要。