人工智慧改變生活的相關論文
人工智慧話題,在經歷多年沉寂之後,最近重新引起熱議。基於“神經網路”構架的軟體在機器學習能力方面的進展,讓人耳目一新的同時,也讓不少人焦慮乃至恐懼。以下是小編整理的人工智慧改變生活的論文,歡迎閱讀!
人工智慧改變生活的論文篇一
【摘要】人工智慧話題,在經歷多年沉寂之後,最近重新引起熱議。基於“神經網路”構架的軟體在機器學習能力方面的進展,讓人耳目一新的同時,也讓不少人焦慮乃至恐懼。這是因為,“學習”能力原被認為是人類特有的能力,機器難以勝任。如今突破了這條界線,機器與人之間的界限似乎就被抹掉了。關於人工智慧的憂慮中,最為值得關切的是人工智慧的應用倫理及其價值植入的技術限度。實際上,人工智慧的技術飛躍或者所謂“智慧大爆發”帶來的應用倫理問題,並不是新問題,而是一系列老問題的疊加。它會挑戰我們過往的既有經驗,卻不是顛覆性的“消滅”。無論人工智慧如何模仿人腦的“神經網路”,表現如何像人,只要人類心智現象的最終解釋沒有取得突破性進展,關於人工智慧是否逼近人類智慧的設問就缺少必要的前提。
【關鍵詞】弱人工智慧 強人工智慧 量子力學 物理主義 倫理困境 價值理性
【中圖分類號】 B82-057 【文獻標識碼】A
【DOI】10.16619/jki.rmltxsqy.2016.07.003
AlphaGo的“勝利”與人工智慧的演進
2016年,是人工智慧Artificial Intelligence,英文縮寫為AI議題高度亢奮的一年。谷歌DeepMind團隊開發的AlphaGo程式以4比1的成績“戰勝”韓國棋手、世界冠軍李世石,使這種亢奮達到了頂點。
AlphaGo程式利用“神經網路”來模仿專業棋手,並通過與其他同類程式比賽、加上程式自身的“對壘”進行“自我學習”,從而進一步提高其效能。AlphaGo對陣其他圍棋程式的勝率達到了99%,並在過去的一場巡迴賽中以5比0戰勝了衛冕歐洲冠軍樊麾。此番AlphaGo與李世石的對壘,五連勝還是負一贏四,並不妨礙我們對人工智慧的發展作出進一步的評估。恰如本次賽前釋出會上谷歌董事長施密特所表示的,輸贏都是人類的勝利。因為正是人類的努力才讓人工智慧有了今天的突破,人工智慧在圍棋上“戰勝”人類智慧只是時間問題。
AlphaGo贏得圍棋比賽,使得知識界科技界對待人工智慧的兩種典型態度再度引起關注:一種是霍金、比爾・蓋茨式的“警惕人工智慧”,一種是雷・庫茲韋爾式的樂觀興奮與期待憧憬。2014年12月,英國理論物理學家史蒂芬・霍金警告說,人工智慧的發展可能意味著人類的滅亡。2015年1月,比爾・蓋茨在Reddit的“Ask Me Anything”論壇上表示,人類應該敬畏人工智慧的崛起。蓋茨認為,人工智慧將最終構成一個現實性的威脅,雖然在此之前,它會使我們的生活更輕鬆。庫茲韋爾是“奇點論”和“加速回報定律”主張的代表人物,他曾經表示:“要成為一位發明家或企業家,你必須得是個樂觀派。對未來所存在的風險,我並非是渾然不覺,我只是對人類安然渡過奇點而無需以摧毀文明為代價持樂觀態度而已。”①
自被1956年的達特茅斯學院會議正式確立為一個學科以來,“人工智慧”的發展經歷了多次起伏。到了1970年代,人工智慧的發展開始遭遇更多的批評,隨之而來的還有資金支援的銳減。研究者的過於樂觀使得一些專案的承諾無法兌現,比較知名的諸如閔斯基Marvin Minsky對感測器技術的激烈批評,使得聯結主義即神經網路近乎銷聲匿跡了10年。1973年,美國和英國政府更是嚴格控制對人工智慧的投入,那些“沒有明確目標的人工智慧研究專案”被停止了撥款。
1980~1987年,人工智慧重新迎來一個發展高潮,首先是日本投入了8.5億美金研發機器人。受日本政府投資野心的刺激,發達國家進入了“人工智慧”研究的競賽狀態,美國政府和企業再次在AI領域投入數十億研究經費,但由於研究人員低估了人工智慧研發的難度,進展有限,這些投資在80年代末再次受到質疑。1987~1993年,人工智慧的發展又一次陷入低谷,美國研究機構DARPA國防高等研究計劃署的主任甚至認為人工智慧不再是研究的重要方向。卡內基梅隆大學移動機器人實驗室主任莫拉維克Hans Moravec將這種挫敗歸咎於他的同行們不切實際的預言和承諾。②
從1993年到今天,人工智慧進入了加速發展軌道。2012年6月23日,在位於米爾頓凱恩斯的布萊切利公園舉行了紀念圖靈百年誕辰的圖靈測試。一個被設計為擁有“高度可信度”的個性化機器人“古斯特曼”在競賽中獲勝。這次競賽主要有5臺機器人、25名人類成員和30名評委參與,是有史以來規模最大的一次競賽。經過一系列的5分鐘對話後,29%的評委相信古斯特曼擁有類人的人工智慧。③這次測試,使得人工智慧樂觀派相信,人工智慧的飛躍式發展即將來臨。早在2005年,雷・庫茲韋爾在他的《奇點臨近》一書中,預言機器的智慧將在2045年超過人類的智慧。④
在學術界,“奇點理論”遭到了強烈而持久的質疑。牛津大學哲學教授、人類未來研究院創始人和主任人類未來研究院是一個多學科研究院,旨在幫助一些非常優秀的數學家、哲學家和科學家對人類大問題和全球大事務進行仔細的思考波斯特姆Nick Bostrom在其出版於2014年的《超級智慧:途徑、危險與戰略》一書中認為:“‘奇點’這一術語在很多不同領域被混亂地使用,並催生出一種不合理的技術烏托邦氛圍,就好像我們會就此迎來太平盛世了。考慮到‘奇點’這個詞所指的大部分涵義與本文的論述不甚相關,我們可以去掉這個詞並代替以更精確的術語。”⑤波斯特姆使用“超級智慧”superintelligence一詞來描述機器“智慧爆發”之後的智慧狀態。但是,波斯特姆的這個概念沒有把工具性智慧與人類的意識和自我意識等第一人稱世界的內容區分開來,根據我們下面的討論可以看出,這種混淆是誤入歧途的,但這並不妨礙他的警示的有效性。
弱人工智慧複雜化:人類的“超級祕書”
AlphaGo贏得圍棋比賽,是不是像有些人驚呼的那樣,人類智慧最後的壁壘即將坍塌,“人類應放下自己的驕傲”?⑥其實,人類以這種工具性智慧為傲,本來就是概念錯置。況且,以下圍棋的能力來代表人類智慧,也站不住腳。說到底,這是在單一的抽象博弈智慧方面,體制化的學術集體戰勝了天賦極高的自然個體。這種博弈,無論哪一方贏,都是人類在贏。 圍棋作為一種古老的棋術,其規則簡單明晰,卻因組合可能性的資料龐大而令一些人感到痴迷。圍棋棋盤上每一點,都有黑、白、空三種情況,棋盤上共有19*19=361個點,所以可能產生的合法棋局數為3的361次方種。可能性的難以窮盡,催生了圍棋朗朗上口的口訣式經驗總結,其實就是快速對應勝負的概率計算,這與AlphaGo通過“深度學習”而減少計算量的邏輯是一致的。不同的是,計算機可以記住趨於無窮多的作為程式的口訣和案例,而人窮其一生,也只能記住有限的經驗,很多時候就只能靠現場推算,甚至靠直覺領悟了。一些對圍棋技藝痴迷且不願意相信電腦能贏的人,陷入的恰恰是將圍棋神祕化的有限經驗當中。更有意思的是,有些棋手按照平時訓練的圍棋技藝來評價人機大戰時,會認為AlphaGo哪招哪式在下“臭棋”,哪招是“失誤”,其實,在以最終取勝為目的的電腦程式裡,只要達成程式設定目標,就不能有所謂“臭棋”或“失誤”之說。
那麼,會“深度學習”、用“神經網路”打造的AlphaGo究竟算不算“強人工智慧”或波斯特姆所言的“超級智慧”呢?
波斯特姆在美國《連線》雜誌2016年1月刊發表了看法。在他看來,這指此前AlphaGo的發展並不一定是一次巨大飛躍。波斯特姆指出,多年來,系統背後的技術一直處於穩定提升中,其中包括有過諸多討論的人工智慧技術,比如深度學習和強化學習。谷歌擊敗圍棋大師不過是一項重大程序中的一部分。這一程序始於很久以前,也將延續至未來幾年。波斯特姆說,“過去和現在,最先進的人工智慧都取得了很多進展”,“谷歌的基礎技術只是過去幾年中的技術研發的技術正常延續”。⑦
看起來,雖然波斯特姆在總體上有關智慧本質的理解是不成立的,AlphaGo的表現也沒有出乎他的意料。在《超級智慧:路線圖、危險性與應對策略》一書中,他曾經這樣表述:“專業國際象棋比賽曾被認為是人類智慧活動的集中體現。20世紀50年代後期的一些專家認為:‘如果能造出成功的下棋機器,那麼就一定能夠找到人類智慧的本質所在。’但現在,我們卻不這麼認為了。約翰・麥肯錫曾不無惋惜地悲嘆:‘這種機器被造出來之後,人們就不稱其為人工智慧了。’”⑧也就是說,能下棋能贏人類的機器,終究還是機器,與人類的心智本質無甚關聯。感到不可思議或驚呼“聰明的人類輸給了機器”的人,不是神化了下棋技藝的智力本質,就是給下棋程式橫加賦予了“人性”特質。
初看起來,波斯特姆所謂的“超級智慧”,應該是能夠全面取代人類智慧的一種“強人工智慧”,區別於當前已經廣泛應用中的“弱人工智慧”包括自動駕駛、下棋技能、機器視覺、指紋識別、人臉識別、視網膜識別、虹膜識別、掌紋識別、專家系統、自動規劃,等等。但他並沒有深入探討人類的智慧現象的本質究竟是什麼,對經典的“他心問題”也無涉及,這又讓人覺得他說的“超級智慧”還是屬於工具性智慧的“弱人工智慧”的範疇。
就這一點,他本人也有所認識,他說:“用超級智慧來指代在許多普遍的認知領域中,表現遠遠超越目前最聰明的人類頭腦的智慧。這個定義仍然十分模糊。按照這個定義,很多系統具有迥然不同的效能特質,都可以被視為超級智慧。”⑨為了進一步解釋他的構思,他試圖通過區分智慧層面的超級能力,將超級智慧的這種簡單定義分解。於是,他將超級智慧分為三種形式:高速超級智慧、集體超級智慧和素質超級智慧。由於未能把握人類意識現象的本質以及指出解釋意識現象的方向,不管波斯特姆在展望“超級智慧”時如何分類,都無法提供接近“機器人是人嗎?人是機器人嗎?”這個根本命題的方向乃至答案。
無論是谷歌的無人駕駛技術,還是如今的AlphaGo下棋程式,或者更早前的“微軟小冰”,這些智慧機器的發明,與人類從科技進步中期待得到的工具理性之間,並無根本的內在衝突,複雜程度日益提升、智慧的日趨強大,與人們驚呼的“人類將要被機器消滅”的後果之間,並沒有什麼必然的關聯。
可以說,迄今為止機器下棋技術的每一次重要進展,都可能是“弱人工智慧”領域的路標,但其中涉及的主要並不是人工智慧技術內部邏輯的斷裂性突破,而這次AlphaGo贏了人類冠軍所謂的重要意涵,是一些圍棋愛好者把圍棋和李世石預先設想為當然標杆後,標杆在某種光照中投下的張揚扭曲的影子。要超出這個,我們必須對人類意識的“整一性”難題和“他心問題”有了可操作的解釋以後才有可能,就目前情況來看,玄機在哪裡呢?不在棋局中,不在DeepMind的工坊裡,也不在“阿法狗”的“神經網路”裡,而在我們自己心智的幻影中。就“弱人工智慧”範疇而言,智慧再強大的機器,再像人的機器,也就是人類的一個不鬧情緒的“超級祕書”而已。
價值失落:人類的身份認同危機與技術焦慮症
2014年,史蒂芬・霍金與麻省理工學院物理學家馬克思・泰格馬克Max Tegmark、諾貝爾獎得主弗朗克・韋爾切克Frank Wilczek、電腦科學家斯圖亞特・羅素Stuart Ressell合寫了一篇署名評論文章《在超級智慧機器上超越自滿》,該文引起了廣泛關注。霍金在文章中表達了對人工智慧的憂慮:“可以想象,人工智慧會以其‘聰明’在金融市場勝出,在發明方面勝過人類研究者,在操縱民意方面將勝過人類領導人,研發出人類甚至理解不了的武器。儘管人工智慧的短期影響取決於誰在控制人工智慧,而它的長期影響則取決於人工智慧到底能否受到任何控制。”⑩
關於人工智慧的憂慮中,最為值得關切的是人工智慧的應用倫理及其價值植入的技術限度。
人類的價值系統,粗泛地區分,可以分為外在價值和內在價值,即所謂“有用”與“無用”之辨。當我們說什麼東西有用時,是就這東西對於它之外的某個目標、目的或者是功能而言的,比如錢可以拿來購買麵包充飢,這叫工具價值。由於它把其他東西當作自己服務的物件,所以它沒有內在價值,只有外在價值。外在價值即是那些工具性的價值,最終服務於人類的內在價值訴求。 那麼,什麼是內在價值呢?哲學家們或許會就某些含混地帶進行爭論,但無論如何,很少有人會把一些基本的要素排除出去,比如自由、快樂、尊嚴、情愛、創造、自我超越,等等。這些東西不是為了其它東西而存在,相反,生活中沒有了這些東西,就等於失去了值得欲求的內容。當然,要有自由、尊嚴,需要一個最低版本的生存條件。這個條件,人和任何其他動物沒有什麼不同,不是人之為人的本質所在。如果我們談論人類生活的內在價值及其意義系統,則必然集中在人所特有的東西上。康德的道德哲學已向我們表明,追求自由、尊嚴是所有理性存在主體的內在規定,鮮有其他哲學家會否認這一點。
在談論人工智慧對人的侵蝕和威脅時,有一部分研究人員會使用喪失“人類關切”human-centric一詞來描述這種內在價值的虧損。比如法格拉Daniel Faggella採訪了12位活躍在AI領域的權威專家和研究人員。其中,科爾奈Kornai博士和阿肯色大學的博爾林特Daniel Berleant博士都預見到了自動化金融演算法被它們的所有者們用來作為賺錢工具所帶來的潛在災難性問題,他們說,這其中沒有任何“人類關切”的目標。認知科學家巴赫Joscha Bach則說:“近期的人工智慧引起的危機最終可能成為現在社會中已經存在的一樣的危機。如果我們不能走出基於工薪的經濟模式的話,人工智慧的自動化會提高生產力,卻不會改善我們的生存條件。”?這種憂慮不無道理,不過主要是基於財富分配的急遽變化而引起的社會階層流動而言的,實際上,並不是技術進步和人工智慧自身的問題。
如前所述,人類的內在價值並不在於謀生存的基本勞作,無論是體力勞動還是腦力勞動,都是為了解決問題來完成給自己設定的任務,這種設定源於我們的自我意識和意義系統。有了這種設定,才能知道什麼是該乾的“活”,什麼是服務於我們的訴求的有效勞動。像下棋一類的智力活動,在人類這裡剛好不是用來“幹活”完成功利目標的技能,而是生活內容中的一部分高階遊戲,這很有工具價值之外的意義。但是,這場人機大賽,引起譁然的並不是這個,而是人們感覺到的一種基於工具效能理解的自我認同危機。這種自我認同,其實是傭工思維,是一種價值上的自我貶損。
在單一的抽象博弈智慧方面,體制化、學術化的集體戰勝了天賦極高的自然個體。這令依賴這種稟賦的自然個體感到焦慮,正如有人馬上反應過來:“以後還帶不帶孩子學圍棋了?大街小巷的圍棋興趣班還有生意麼?”圍棋冠軍們更是感受到一種職業性的惶恐:究竟我們此前對圍棋的認知還有多少盲區?
其實,機器沒有獨立的意志,所謂“輸”與“贏”的說法,都是我們人類單方面的投射,與AI“自己”無關,因為AlphaGo根本就沒有所謂的“自己”。沒有獨立的意志,怎麼和人發生“大戰”呢?相反,棋盤之外,人們的反應,比如無名的焦慮,不可剋制的興奮,更具體點,漢語世界的看客幾乎異口同聲地把AlphaGo稱作“狗”,這卻是要超出現今任何人工智慧可以“理解”的範圍的。
一些圍棋資深人士感到困惑,他們認為AlphaGo給出選點的思維方式與人類很不同,還有一個流行的說法是,“最可怕的不是AlphaGo戰勝李世石,而在於它能贏卻故意輸掉”。這本來是個玩笑,但這個玩笑引出的問題確實切中要害的。什麼叫“故意”輸掉?AlphaGo並沒有自我意識,沒有自由意志,如何談得上“故意”?“故意”可是一種截然不同的能力。這就要求我們理解“弱人工智慧”與“強人工智慧”的原則區別了。
波斯特姆似乎會把機器的所謂“故意”描述為“超級智慧的意願”,在他看來,智慧大爆發將會導向一個叫做“背叛轉折”的臨界點。關於背叛轉折,他這樣定義:“當人工智慧本來愚蠢時,變聰明是更安全的;但是當它本來就聰明時,變得更聰明則是更危險的。就像有一個軸心點,到這個點上,原來很有效的策略會突然產生相反的結果。我們把這個現象叫作背叛轉折。”?
波斯特姆假想的人工智慧厄運圍繞的仍是人的動機,而不是機器真正有了意圖。諸如他所列舉的,“機器”為了使得開發人工智慧的贊助者高興,而“故意”表現得不那麼“聰明”來矇蔽人類,諸如在贊助者的大腦中植入負責快樂的電極,以使得贊助者被矇蔽而不知覺,反而覺得很快樂。這裡面涉及的,仍然是人與人之間的欺騙與控制。
只要沒有出離人與人之間的關係,人工智慧呈現的問題與危機,就沒有超乎人類已經面對過的控制與反控制的議題。也就是說,人工智慧的技術飛躍或者所謂“智慧大爆發”帶來的應用倫理問題,並不是新問題,而是一系列老問題的疊加。它會挑戰我們過往的既有經驗,卻不是顛覆性的“消滅”;它會改變社會學階層分析的經典框架,卻不會產生什麼新型的劫難。
對人工智慧的過度期待或深度憂慮,大多基於缺乏學理根據的科幻想象或人們對自身的身份認同前景的恐慌。出版於1818年的《科學怪人》?就描述了“弗蘭肯斯坦”這個科學狂人,他以“科學”的方式使死屍復活,結果那個被稱為“弗蘭肯斯坦的怪物”的人造人反過來控制了弗蘭肯斯坦。文學作品展示人類的這種身份認同焦慮,已經源遠流長,但今天的知識界科學界,如果還是止步於無的放矢的焦灼和恐懼,則無助於我們真正認識人工智慧與人類意識的本質關係。
從人工智慧目前的發展方向看,無論它再怎麼“自動學習”“自我改善”,都不會有“征服”的意志,不會有“利益”訴求和“權利”意識。當前,無論從緊迫性上看,還是從終極可能性上看,“弱人工智慧”問題都屬於常規性問題,並且是漸進呈現的。如果說在可見的未來,技術發展領域有什麼更值得擔心、警醒、緊迫的事情,那麼,或許基於虛擬技術的“擴充套件現實”的實現帶來的影響將更具顛覆性。?
強人工智慧的可能性與物理主義的困境
“弱人工智慧”的機制比較清晰可控,那麼,“強人工智慧”會失控嗎?這就要看我們究竟如何定義“強人工智慧”。
在學界和業界,早有“強人工智慧”相對“弱人工智慧”的概念。這個命名容易讓人誤認為兩者只是強弱程度的差別,但這種區別具有分立的性質――如果我們把“強人工智慧”定義為出現真正有自主意識並且可確證其主體資格的“智慧”,而不是AlphaGo這樣僅僅比機械計算髮展了更多層次的推理能力和學習能力的程式的話。這樣定義下的所謂的“強”,指的是超越工具型智慧而達到第一人稱主體世界內容的湧現,還包括意向性、命題態度,乃至自由意志的發生。 這樣的“強人工智慧”是可能實現的嗎?有的科學家哲學家說永遠不可能,有的則說近在咫尺。
波斯特姆試圖從“人工智慧、全腦模擬、生物認知、人機互動以及網路和組織”等路徑分析強人工智慧或者他稱之為“超級智慧”的幾種可能的實現方式,他詳細評估了每種路徑實現超級智慧的可行性,並且認為“由於目前存在多條技術路徑,因此至少有一條路徑能實現超級智慧的可能性很大”。?
波斯特姆的分析看起來龐大蕪雜,但他給出的實現路徑更多是在人腦上的直接迭代或高模擬,這很可能混淆了“強大的弱人工智慧”與擁有主體性的“強人工智慧”,他把通往不同本質的路徑視為同一種性質的多種可能性。
在他看來,“若有足夠先進的掃描技術和強大的計算機能力,即使只有很少的大腦理論知識也可以模仿全腦。極端情況下,我們可以想象採用施羅丁格即薛定諤量子力學方程在基本粒子水平來模擬大腦。這樣我們就可以完全依靠現有的物理學知識,而不用任何生物模型。這種極端案例說明,沒有計算機技術和資料分析也可以製造人工智慧。一個聽起來更合理的模擬水平是,將單個神經元和它們的連線矩陣合併,連帶著它們的樹狀結構和每一個觸突的變化狀態。我們無法模擬單個的神經遞質分子,但是可以粗略地將它們的波動濃度模型化。為了評價全腦模擬的可行性,人們必須理解成功的評判標準。我們的目的不是精確模擬出一個大腦,用它來預測在受到一系列刺激後,原始大腦會做出何種反應。相反,我們的目的是獲得足夠的大腦的計算機功能屬性,以使最終得到的模擬進行智慧工作。因此,真實大腦的很多複雜的生物學細節就無關緊要了。”?
這段論述是波斯特姆《超級智慧:路線圖、危險性與應對策略》一書中唯一一處提及量子力學,但他後面的分析卻遠離了量子力學才是對意識進行物理學研究的可能進路這一方向,回到了一般的計算主義/物理主義的“牢籠”。
在心智哲學和認知科學領域,的確有不少所謂的“計算主義者”“物理主義者”,他們認為,人的情感、意向性、自由意志等以及意識與自我意識直接相關的內容,在牛頓力學框架下的物理因果關係模已足具解釋力,在人的第一人稱主觀世界與第三人稱客體世界之間,也不存在最後的鴻溝。但是,也有一部分研究者持相反的看法,極力論證這種“計算主義”“物理主義”的悖謬本性,只承認從量子力學原理才有些許可能解決意識和自我意識這個真正的問題。
最近,美國量子物理學家斯塔普Henry Stapp、英國物理學家彭羅斯Roger Penrose、美國基因工程科學家蘭策Robert Lanza都提出了人類意識的量子假設,中國清華大學副校長施一公院士、中科大副校長潘建偉院士等也大膽猜測,人類智慧的底層機理就是量子效應。對於這個問題,筆者在出版於1998年的著作中嘗試論證這個問題?,同樣的看法日漸增強。
不久前,筆者把這種論證進一步系統化,在《哲學研究》上發表了分析物理主義包括計算主義如何在研究中陷入“整一性投射謬誤”,並論證定域性假設為何與腦神經元細胞層次對意識現象的解釋註定要失敗的文章。?
也就是說,以定域性預設為前提的物理主義和計算主義,在原則上就不可能解釋人類的意識現象,量子力學已經不得不拋棄定域性預設,這就在邏輯上打開了其解釋意識現象可能性之大門。
包括計算主義在內的物理主義有一個基本預設,即設定任何物理系統都能夠被分解為單個獨立的區域性要素的集合,且各要素僅同其直接鄰近物發生相互作用。這是經典力學的基本原則,也是當代神經科學預設的前提,從而也是物理主義心智哲學的預設。計算主義則強調符號關係,它與其他版本的物理主義相比,主要是分析要素的不同,但這種不同卻無關巨集旨。這是因為,符號關係試圖解釋的,也是意識現象或心智事件的產生和關聯的機理,而不是純邏輯的關係。基於這種認知框架,他們傾向於認為,大腦的符號系統的狀態,就是各個單一獨立要素的神經元的激發/抑制狀態聚合起來的某個區域的總體呈現。
這樣也就不難理解,波斯特姆為什麼認為“獲得足夠的大腦的計算機功能屬性”,就能最終使得模擬大腦進行智慧工作。於是,在計算主義/物理主義這裡,神經元系統可望實現的某個整一性功能,就被他們完全等價於各個分立神經元符號功能的關係的總和。
但是,筆者和斯塔普都詳細論證過,這樣的出發點,連最基本的意識感知現象比如說雙眼綜合成像都解釋不了,因為這類現象中涉及的同一時空點的變數的個數遠遠超出在局域性預設中每個空間點可容納的物理變數個數。他們無視這種困境的存在,正是他們混淆了“內在描述”與“外在描述”功能而陷入“整一性投射謬誤”的結果。?
儘管從量子力學效應解釋人類智慧的頂層機理尚未取得突破性成果,但意識導致坍塌這一原理似乎是量子力學與身心問題的最為接近的終極解釋,研究者們正試圖檢測與物理事件相關的意識事件?,相對明確的結論暫時付諸厥如。
但無論如何,基於上述討論,我們可以得知,所謂的“圖靈測試”對判定“強人工智慧”毫無用處,不能作為智慧意識產生的推演依據,無論試驗中的以假亂真效應有多麼逼真。有鑑於此,本文擬提出一個“人工智慧逆反圖靈判據”,陳述如下:
任何不以已經具有意識功能的材料為基質的人工系統,除非能有充足理由斷定在其人工生成過程中引入並隨之留駐了意識的機制或內容,否則我們必須認為該系統像原先的基質材料那樣不具備意識,不管其行為看起來多麼接近意識主體的行為。
這裡說的“充足理由”,在人類現有的科學視野中,按照筆者和斯塔普等人的論證,唯有量子力學才有可能提供。
因此,無論是圖靈測試中的機器人還是新近由日本軟銀公司研發、富士康代工的所謂“情感機器人”Pepper,抑或如今被驚歎有了“深度學習”能力的AlphaGo等有了多麼強大的所謂“超級智慧”,也無論它們及其未來的升級版看起來多麼像具有人類的情感,除非有人確鑿證明,在製造或升級這些機器的過程中,在哪一個關節點把人類情感、人類意識整合了進去,否則,我們就只能認為把Pepper稱作“有情感的機器人”只是一種比喻。 結語:“強人工智慧”與人類繁殖倫理前瞻
如上所述,沒進入量子力學之前,所有的人造機器,包括AlphaGo,必然只是在某些方面具備高於人類的能力。這本來就是人造機器的目的,即人為了自身的內在價值實現同時不斷改進人類的生存處境而作出的努力。在現有條件下,人造機器不會失控,如果有所謂“失控”的話,這與我們對飛機、高鐵、大壩、核能之類的失控基本上屬於同類性質。
AlphaGo的確有隱喻意義上的“學習”能力,自行調整累積迭代的能力,但說到底仍是一種工具能力,是“弱人工智慧”。這種“弱人工智慧”很可能通過圖靈測試,但這與人的意向性intentionality及主體感受內容qualia不相干。
當然,基於人類理性和道德能力的限度,我們有理由相信,即便是弱人工智慧,在其應用中也應當秉持審慎的人文理性態度。
不少比較理性的研究者提出,由於人工智慧的發展呈“加速回報”的態勢,人類既有的道德資源和倫理框架或許難以覆蓋技術飛躍變革提出的新議題。他們提出應當發展一種叫做機器倫理Machine ethics的道德態度,加利福尼亞大學伯克利分校計算機學教授拉塞爾Stuart Russell在美國時代雜誌發表觀點認為,避免機器的不當使用威脅人類的生存,就應該考慮如何把人類價值變成可程式設計的程式碼,把人類的道德轉化為人工智慧語言。他認為,在機器人領域,“道德哲學將是一個非常重要的產業部門”。
歸根結底,這些訴求跟當前的一系列技術推進所遭遇的倫理困境並無實質上的差異,就像我們已經提出的在虛擬現實、擴充套件現實領域應當引起重視的“大憲章”問題一樣,指向的都是如何避免少數人掌控技術以更便捷更隱蔽的手段損害人的自由與尊嚴的問題。其中需要的關鍵要素有兩點:第一,如何更準確更敏銳地分析科技推進中的結構性變革,以技術手段防範技術黑箱操作,這需要技術的發展始終在一個社會開放空間中進行,使技術不被少數人的權力和資本所壟斷;第二,如何在技術推進中注入人文理性,這需要哲學家、藝術家以及社會科學各界在技術變革中積極參與,及時發現技術當中隱含的道德議題、社會議題,向科學界、技術界和企業界發出他們觀察慎思後的最強音,以起到建立一個人文倫理防火牆的作用。
此外,我們需要著重提出的是,弱人工智慧和強人工智慧之間,鑑於其生髮機理性質的全然不同,在應對的倫理規則方面,也必然需要在認清本有的界限的基礎上分別制定。
如果讓我們對“強人工智慧”的可能實現做一點倫理前瞻的話,那麼,基於上述分析,“強人工智慧”實現以後的這種造物就不能被當做純粹的工具了。這時,它們已經具有自主意識,具有與人類對等的人格結構,今日人類成員所擁有的權利地位、道德地位、社會尊嚴等等,他們就應該平等地擁有。
與我們平起平坐的具有獨立人格的“機器人”,還是機器嗎?不是了,這才是真正的“奇點”和“智慧大爆發”。但是,有人會認為,最為關鍵的問題是,這樣的“強人工智慧”主體,不就可以與人類對抗,毀滅人類了嗎?
要理解這種擔憂的實質,就需要我們以價值理性和科學理性出發進行自我反思。所謂的人類毀滅恐懼與人類身份認同焦慮,實際上是把基於個體經驗形成的一己情懷,等價於有效的價值判斷了。我們主動設計、製造了某種新型主體的存在,但並不對他們的個體特質進行設計,不就等於以新的途徑繁殖了我們的後代嗎?我們千萬不要以一時的人文情懷來遮掩甚至拒斥可普遍化的人文理性,將人類引入迷途。
因此,如果真有強人工智慧實現的一天,最合理的態度就是:承認他們是我們自己進化了的後代,人類進入了一種改變了繁殖方式的發展新階段。後代取代前輩繼續生存,實現更好的發展,這不是人類的災難,而是人類的進化飛躍到了一個新階段。退一萬步講,假如“後人類”真的聯合起來向“前人類”造反並將前輩“征服”,那也不過就像以往發生過的征服一樣,一批人征服了另一批人或新人征服了舊人,而不是人類的末日。
至於以量子計算為基礎的人工智慧到底會給我們的生活帶來何種衝擊,恐怕我們的想象力暫時還是鞭長莫及。
下一頁分享更優秀的>>>人工智慧改變生活的論文
有關人工智慧與人類的論文