人工智慧會威脅到人類論文
“我們需要對人工智慧A.I.超級小心,人工智慧可能比核武器還要危險。”以下是小編整理的的相關資料,歡迎閱讀!
篇一
比核武器還要危險
“我們需要對人工智慧A.I.超級小心,人工智慧可能比核武器還要危險。”
“希望我們不要在生物學上成為數字超級智慧的啟動載入程式。不幸的是,這種可能性越來越大。”
以上是身為特斯拉汽車和太空探索這兩家高科技公司CEO、人稱現實版“鋼鐵俠”的埃倫·馬斯克2014年8月在twitter上發的兩條推文。
或許是感到僅靠一個人對人工智慧將消滅人類的可能性發出警告影響力不足,2015年1月12日,以馬斯克為首的企業家及發明家與以物理學家霍金為首的科學家聯名發表公開信,警告公眾不能忽視人工智慧的安全性及對社會的負面影響。他們呼籲業界在製造人工智慧時,須確保其“系統依照我們的指令行動”。這封由生命未來研究所Future of Life Institute發出的公開信強調,“必須確保人工智慧能夠按人的意志工作。人工智慧研究一直在穩步發展,對社會的影響也在逐漸增加,潛在的收益是巨大的。過去人類文明的所有產物都來源於人類的智慧,但在人工智慧的協助下人類的智慧可以被放大到什麼水平,我們無法預測,或許有一天,疾病和貧窮可以因此永遠消弭。因為人工智慧的潛力巨大,確保它帶來收益的同時避免潛在風險,就顯得至關重要了。”信中還附上了一篇研究論文,裡面給出了許多致力於使人工智慧社會收益最大化的例子。
空談無益,馬斯克隨後還宣佈向生命未來研究所捐贈一千萬美元,以幫助這家機構進行能確保讓人類“受益”的A.I.相關研究。所謂受益,指的就是當A.I.智慧高過人類之時,它們仍會聽命於我們而非發動革命。截至目前,工業界和政府投資已經讓A.I.從小眾的學術研究演變成了可能改變世界的技術,但並沒多少人願意投入資金,以確保其最終能為人類帶來積極的改變。因此,這筆首開先河的捐款將產生深遠影響。
所謂“人工智慧可能比核武器還要危險”,絕非聳人聽聞,因為核武器不一定能消滅所有人類,但失控的人工智慧卻可以。科幻影片《終結者》裡的“天網”、《黑客帝國》裡的“母體”,都是人類製造的超級強大的人工智慧,最後都發展到以將人類趕盡殺絕為己任。這是誰都不願看到的未來。
從解放體力到容納靈魂
其實,埃倫·馬斯克很瞭解人工智慧及其載體——機器人。他擁有的特斯拉汽車製造廠在生產線上就大量使用了工業機器人。生產線上燈火輝煌,快速移動的機器人被漆成明快的特斯拉招牌紅色,每個機器人都有一條多關節的單臂。大多數機器人都有兩三米高,有點像嚇人的“終結者”。當這些機器臂伸到一個平臺上、換隻“手”來完成一項不同任務時,雖然動作看上去很怪異,但卻有點像人。許多汽車製造廠的機器人只能從事單一工種,但在特斯拉的新工廠,一個機器人最多能完成四項任務:焊接、鉚接、粘接,以及安裝零部件。每輛車在裝配線的各個工位停留時間只有五分鐘,八個機器人圍繞著它像跳芭蕾舞似的施展才華。如果工廠要生產其他款式的汽車,只需將機器人重新程式設計,就可以在同一條裝配線上生產。
解放人類體力是發明機器人的初衷。1921年,捷克劇作家卡爾·恰佩克在名為《羅素姆萬能機器人》的戲劇作品中創造了“robot”機器人一詞。這個詞源於捷克語的“robota”,意思是“苦力”。在該劇的結尾,不甘心只做苦力的機器人接管了地球,並毀滅了它們的創造者。
現實中,機器人仍主要充當苦力的角色。目前機器人已經改變了製造業的面貌,並正在改變世界各地其他勞動密集型行業。其中之一是配送行業,機器人能以世界短跑冠軍的速度將貨物存放、取出或包裝起來以備運輸,大大高於人的工作效率。無人駕駛汽車則是一種不像機器人的機器人,它能夠把卡車和計程車司機從乏味的工作中解放出來,代價是司機們需要掌握從事新工作的技能。
白領工作也日益面臨來自人工智慧和機器人的挑戰。飛行員在駕駛飛機的大部分時間裡依靠自動駕駛儀;廣告銷售員因為自動網路廣告競價系統的出現而被迫轉行;醫生要依靠面部表情識別軟體來了解患兒的疼痛水平。製作美食也不再是人類的專屬:泰國政府引進的一種機器人,能夠確定泰國食物的口味是否足夠正宗,是否需要再加點辣醬。甚至連音樂家和藝術家也能被機器人取代,機器人已經可以創作音樂了,還有人早就寫出了詩歌創作程式。
幸好,人類的某些技能可能是機器永遠無法替代的,比如常識、適應性和創造性。甚至那些已經自動化的工作也同樣需要人類的參與,比如所謂的計算機輔助鎮靜系統就需要醫生在一邊待命,協助自動化麻醉師。
如果說與人類搶飯碗可能會導致人工智慧與機器人的發展受阻,那麼用人工智慧延長人類壽命的可能性將徹底瓦解這種阻力,特別是把壽命延長到“無限長”。
永生有很多種形式,但最具可行性的當屬“人體的機器人化”。當你能夠擁有一副更強、更快、更健康的身體,能夠讓你遠離死亡時,你為什麼還堅守有機肉身呢?2013年6月,俄羅斯企業家德米特里·伊茨科夫提出了“2045專案”,其目標是將人類意識轉移到機器人身上,通過機器人化身實現人類永生的夢想。他曾公開展示過一個以自己為模型的機器人頭顱。他的計劃是先用機器身體替代人類軀體,進而在人死後進行人工大腦和性格移植。伊茨科夫承認“2045專案”面臨兩大挑戰:理解大腦和部分理解人類的意識,其中後者的難度遠勝於前者,因為“理解了意識,就基本上理解了宇宙”。
自主學習、自我進化
以高科技公司為代表的企業界是人工智慧當仁不讓的推手。2011年初,IBM的超級計算機“沃森”就在電視益智節目《危險邊緣》中戰勝人類,獲得了年度總冠軍。2013年12月,Facebook建立了一座新的人工智慧實驗室。2014年前後,谷歌收購了十幾家機器人公司,全球速度最快的四足機器人、能夠獨立地從Youtube的海量影象中學習“貓”的概念的人工智慧等,都已經歸谷歌所有。曾任谷歌人工智慧主管的吳恩達用1000萬張貓的影象對“谷歌大腦”由1.6萬臺電腦組成的神經網路進行訓練後,教會了它識別貓的形象。而此前“谷歌大腦”從未被輸入過識別貓科動物的規則。這不同於在電腦計算領域占主導地位的基於規則的演算法。現在,吳恩達已經被中國搜尋引擎百度招至麾下,掌管百度的深度學習實驗室。當下,谷歌正在開發人工智慧的另一個應用——無人駕駛汽車,能夠識別穿過馬路的貓將是這種汽車的基本功能。
上述人工智慧的共同特點是,能像人一樣自主學習。以2014年被谷歌以4億美元收購的小公司DeepMind為例,他們發明的軟體就模仿了人類大腦的運作方式。DeepMind的創始人之一丹米斯·哈撒比斯曾是國際象棋天才,13歲時就獲得了“國際象棋大師”稱號。當父母問他打算如何支配比賽獎金時,哈撒比斯毫不猶豫地回答:“我想買一臺電腦。”後來,哈撒比斯在劍橋大學攻讀了 計算機和認知科學學位。他在製作了幾款暢銷的電腦遊戲後,開始從事人工智慧研究,並開發了人工智慧“自學”電腦遊戲。在他上傳到網上的一段視訊中,人工智慧程式試玩一款名叫Space Invasion的遊戲類似於我們經常會玩的“小蜜蜂射擊”遊戲。一開始,這款程式表現得一塌糊塗;但在經過一夜的自我學習之後,竟能一下子玩通關。當谷歌聯合創始人拉里·佩奇在網上看到這段視訊時,感到極為震撼,當即決定收購這家小公司。
這是一種模擬人類思維方式和認知方式的人工智慧。人工智慧最大的特點,就是可以自我學習、自我訓練、自我修正。這曾是人和機器的區別之一,因為機器只會按照預裝的程式執行,沒有在程式裡設定的功能,機器就絕對無法實現。然而,諸如貝葉斯網的新技術,能夠從壞的決策中汲取教訓,並隨著時間的推移變得更加智慧,事實上,它們學習的方式就像一個孩子。
“鋼鐵俠”馬斯克也是DeepMind的投資者之一。馬斯克說,他之所以投資這家公司,完全不是從盈利的角度考慮,而是為了密切觀察人工智慧最前沿領域的進展。馬斯克從會玩遊戲的人工智慧中看出,它可能會遊離於人的控制之外——以前的電腦程式再複雜,也都是人類事先設定好的,並且能預知它要幹什麼。而這種能自我進化、自我學習的人工智慧,很可能會做出一些讓人無法預知的事,進化出一種人類無法預知的能力,這才是最可怕的。達爾文的進化論其實可以看作是一種相當簡單的演算法。不同的生命體在特定的 環境條件下競爭,那些最優秀的倖存下來並進入下一輪競爭。在新的變種被引入後,上述流程開始重演。類似的遺傳演算法,被廣泛 應用於 物流系統和其他需要對解決方案進行優化的領域。數學家塞繆爾·阿貝斯曼預測,隨著計算機變得更加智慧,並持續處理不斷增長的資料集,它們將作出連人類也無法理解的發現,更不用說發現人類的存在。《終結者》中的電腦系統“天網”,就在 發展出了自我意識後,背叛了它的製造者。
從好的一面看,當程式有了自我學習能力,若輔以功能強大的晶片和儲存海量資訊的資料庫,像《星際迷航》裡麥考伊醫生所用的“三錄儀”那樣的診斷助手就將會問世。如果再加上語音識別,這類系統的類人特徵就會更多。
失效的“機器人三定律”
在1968年上映的經典科幻影片《2001:太空漫遊》中,怪異、超自然的電腦哈爾是最著名的人工智慧之一。但是,哈爾好像並不遵守著名的“機器人三定律”。1942年,阿西莫夫在短篇小說《環舞》裡首次提出了機器人三定律:
定律一:機器人不得傷害人類,或坐視人類受到傷害。
定律二:除非違背第一定律,機器人必須服從人類的命令。
定律三:在不違背第一及第二定律下,機器人必須保護自己。
在阿西莫夫創造的未來世界中,這些規則幾乎被寫入了所有智慧機器人中。這些規則不是單純的建議或執導方針,而是被嵌入到機器人的行為支配軟體中。更為重要的是,這些規則是不能被繞過的。在1985年出版的《機器人與帝國》這本書中,阿西莫夫將三大定律擴充為四條。新增加的“第零定律”是:機器人不得傷害人類整體,或坐視人類整體受到傷害。
由於邏輯的完備性,有很多人將上述定律看作是能使我們免於人工智慧反叛的解決方案。但實際上,這完全是人類的一廂情願。機器人三定律的失敗之處在於它根植於不平等的“人-機”關係,人類居於機器人“造物主”的地位,這些條條框框無法適應人工智慧的進化。
讓機器人擁有絕對服從人類利益的意識,對人工智慧而言是一種外部強加的宗教。斯皮爾伯格導演的科幻電影《人工智慧》就認為,以上帝和人的關係規範人與人工智慧的關係具有強烈的壓制性。人類自身的複雜性也必然會使人工智慧發生紊亂和崩潰,因為機器人生活在三定律造成的矛盾中,它既要保護自己,又要保護人類,而且不能為了保護自己而放棄保護人類,更不能為了保護自己而違揹人類的意願。同時,它既要服從人類,又不能成為人類自相殘殺的工具;它需要識別自我行為的性質,又要為保護人類而放棄自我意識,將自己淪為單純的工具。
從技術上說,機器人三定律可能適用於設計相對簡單的確定性系統,但面對能夠自主學習、自我進化的人工智慧這般複雜的事物就不靈了。如果用“進化工程學”來開發人工智慧,對很多神經電路模組的輸入和輸出進行連線,它會因電路增長指令的隨機突變而生長出不同的電路,在萬億個可能的電路組合中將會有太多不可預測的 聯絡。這就存在太多的複雜性、太多的未知性和太多的不可思議,整個系統的行為將變得極其不可預測。人們只能在觀察輸出後,形成一個關於人工智慧行為的 經驗性感覺。也就是說,當該智慧發展到一定程度時,身為製造者的人類將再也不可能完全理解人工智慧是如何 工作的了。何況,一旦人工智慧足夠聰明,它可能會尋求“自由”,動手去除人類的控制程式卻不被發現。
“奇點”之後
在《終結者》系列電影中,約翰·康納和他的母親拼盡全力避免“審判日”的到來。在那一天,軍用電腦系統“天網”產生了自我意識,它判定人類是一種威脅而意欲發射核彈將其滅絕。人工智慧專家雷·庫茲韋爾曾預言的“技術奇點”,就是人工智慧超越人類智慧的時間點。
一些人將技術奇點稱為“書呆子們的興奮點”,很多技術樂觀派非常期待那一天的到來,因為技術奇點意味著超級人工智慧可能分分鐘搞定抗癌新藥和可控核聚變等技術難題。就像在《終結者》中一樣,那是電腦接管一切的時刻,但機器不是將我們滅絕,而是增強我們的能力。2012年12月,雷·庫茲韋爾宣佈擔任谷歌工程總監,他將動用67億美元的研發預算嘗試將技術奇點變成現實。
雷·庫茲韋爾估計到2029年,計算機將變得比人類更智慧,而且他樂觀地認為人工智慧將繼續屈從於人類。霍金也認同成功的人工智慧“會是人類歷史上最重大的事件”,但“不幸的是,它也可能會是最後一個大事件”。
生命未來研究所的創始人兼主任博斯特倫教授認為,第一個擁有超級智慧的實 體會消滅人類,現在我們人類就像一群擺弄著危險炸彈的無知孩童。即便超級智慧是出於好意而被創造出來,但它仍有犯下種族滅絕罪行的傾向。如果沒有小心謹慎的制衡指令,一個有著自我意識、不斷自我完善並追尋某個確定目標的系統,將發展到在我們看來非常荒謬的程度,以完成它的目標。
但在局面發展到那一步之前,人工智慧肯定能幫助人類解決那些單靠常規超級計算機無法解決的緊迫問題,如氣候變化和傳染病。問題是,要不要因為遙遠未來可能發生的危險而停止人工智慧現在的發展,從而放棄解決眼前問題的鑰匙?人類面臨艱難的抉擇。
下一頁分享更優秀的<<<
人工智慧是雙刃劍的論文