機器有思想嗎?
歡迎來到人工智能書評,這是一系列探索人工智能最新文獻的文章。
你會在媒體上讀到的很多內容是,人工智能的進步已經到了越來越難以區(qū)分人類和機器的地步。
但更準確地說,人類和人工智能之間表面上的相似之處使得我們很難看到仍然存在的潛在差異。我最近一直在思考這個問題,因為我一直在關注圍繞Google LaMDA 和 AI 感知的爭議、深度學習系統(tǒng)在復雜游戲中超越人類的能力不斷增長,以及使用生成模型來創(chuàng)造令人驚嘆的藝術品.
顯然,當前的人工智能系統(tǒng)與人類思維完全不同。盡管他們取得了驚人的成就,但當他們與人類智能的多功能性和靈活性相抗衡時,他們的缺陷就很容易被發(fā)現(xiàn)。
但我們也不能認為他們是愚蠢的。那么,我們如何檢查和定義我們今天在機器中看到的不斷增長的“認知”(如果這是正確的術語)能力呢?
Philip Ball 所著的The Book of Minds幫助我更好地調整了我對快速發(fā)展的人工智能世界的看法。對我來說,關鍵是首先要改變我對“思想”的看法。這本書討論了從人類到動物到機器和外星人的各種思想,為您提供了一個框架,可以讓您擺脫通過自己的思想和經驗來看待事物的本能傾向。
定義心靈
鮑爾書中反復出現(xiàn)的主題之一是人類中心思想的謬誤,即按照我們自己的思想來評估其他代理人(無論是否活著)。這種錯誤的觀點可以朝不同的方向發(fā)展。在光譜的一端,我們認為所有其他生物都是愚蠢的,因為它們沒有像我們這樣的頭腦。另一方面,我們將所有事物擬人化,從寵物到汽車再到計算機,根據(jù)人類智能來解釋它們的行為。
“我們把動物當作愚蠢的人類對待的習慣,在很大程度上解釋了我們對動物福祉的漠視;讓他們完全成熟,迪斯尼化的人類思想只是同一枚硬幣的反面,”鮑爾在《思想之書》中寫道。
這種習慣剝奪了我們看到這些其他思想的真實面目的能力。首先,我們必須承認有不同類型的心智,存在一個多維度的“可能心智空間”。其次,我們必須擺脫以人類為中心的思維空間的“前哥白尼”觀點。然而,我們可以嘗試根據(jù)它們在思維空間維度上的屬性來猜測其他思維與我們的思維有多接近。
最后,我們必須定義什么是“心”和“心”——這本身就是一項艱巨的任務。
正如鮑爾所說,“‘心智’是那些概念之一——就像智力、思想和生命——聽起來很技術化(因此可以定義),但實際上是口語化的,不可簡化的模糊。除了我們自己的思想(以及我們由此推斷出的人類同胞的思想)之外,我們無法確定思想應該或不應該意味著什么。”
盡管如此,鮑爾還是確定了以下定義,該定義是根據(jù)哲學家托馬斯·內格爾(Thomas Nagel)的理論制定的:
一個實體要想有思想,就必須有某種東西成為那個實體。
盡管這是一個模棱兩可的定義,但它可能會有所幫助。“我們所知道的唯一心智是我們自己的,并且有經驗。我們不知道為什么它有經驗,但只知道它有。我們甚至不知道如何描述經驗,但只知道我們擁有它。在試圖理解心智時,我們所能做的就是小心翼翼地向外移動,看看我們可能覺得能夠(非常小心地)概括我們經驗的哪些方面,”鮑爾寫道。
我們還必須承認,并非所有事物都有思想,有機體需要一定程度的復雜性才能成為類似的東西。例如,我們可以將思想歸因于狗、黑猩猩或(也許)蒼蠅。但是考慮真菌是否有意義?鮑爾強調,頭腦不是全有或全無的實體,而是程度的問題。
“我認為詢問某物是否有思想并沒有幫助,而是詢問它具有哪些思想品質,以及其中有多少(如果有的話),”鮑爾寫道。
在《心靈之書》中,鮑爾提出了繪制思維空間的不同方法,包括沿著經驗、能動性、智力、意識和意向性等維度。雖然深入研究這些概念中的每一個都超出了本文的范圍,但很清楚的是,思維跨越了多個維度,沒有一個思維能夠在每一個維度上都表現(xiàn)出色。
然而,我們必須小心我們在思想平臺中適合什么樣的屬性,鮑爾警告說,因為“擺脫對我們自己物種的舊偏見的動機良好的愿望不斷冒著成為一種將其他有機體拉向我們自己的練習的風險。自己的水平。”
“它通??雌饋硐窳硪粋€‘思維俱樂部’事件:我們承認誰(因為我們的思維被認為有點像我們的),我們在門口拒絕誰?”鮑爾寫道。
顯然,有些動物在特定技能方面超過了我們,例如運動功能、聽覺敏銳度、導航能力、短期記憶、位置記憶等。另一方面(我們稍后會談到),人工智能和計算機可以在諸如數(shù)學計算和解決需要蠻力數(shù)字運算的問題等任務上超越我們。但是,雖然這些是我們經常用來衡量人類智力的標準,但它并沒有告訴我們其他人的思想。
“[Thomas] Nagel 提出的問題仍然是一個挑戰(zhàn):這種認知能力對動物心智的主觀性意味著什么?”球注。
人工智能和具身智能
Ball 指出,“關于人工智能危險的大部分討論都被我們堅持賦予機器(在我們的想象中)像我們這樣的思維所扭曲。”
例如,記者、分析師甚至科學家經常談論AlphaZero和GPT-3等 AI 系統(tǒng),就好像在談論人類一樣。這在很大程度上受到大腦“計算視圖”的影響,其中人腦被視為數(shù)據(jù)處理機器??茖W家們根據(jù)這個概念設計了計算機。反過來,計算的進步也強化了思維的計算觀點。
計算視圖的特征之一是它變得與心靈的物理基礎無關。一個東西只要能表現(xiàn)出大腦的數(shù)據(jù)處理功能,就可以認為它具有某種思想。
鮑爾駁斥了這種思想觀點。“我的預感是,沒有真正的頭腦會像今天的計算機那樣,在輸入一些數(shù)字來處理之前,它們一直處于靜止狀態(tài),”他寫道。“當然值得注意的是,進化從來沒有產生過像這樣的計算機一樣工作的大腦。這并不是說它一定不能——進化對它已經找到的解決方案充滿了承諾偏見,所以我們對它可以產生的全部范圍幾乎沒有概念——但我的猜測是,這樣的事情不會被證明是非常強大的。”
鮑爾認為,具身化在塑造心靈方面發(fā)揮著重要作用,這一觀點得到了許多科學家的認同。在每一個物種中,心智、大腦和神經系統(tǒng)的進化都是緊密相連的。此外,在大多數(shù)生物體中,大腦和神經系統(tǒng)與身體一起生長。隨著身體年齡的增長,大腦的學習模式和能力也會發(fā)生變化。因此,頭腦不能被認為是安裝在大腦上的一個軟件。
“[思想和大腦之間]的互動比這更加流暢。你可以說,頭腦所建立的世界是基于對它做某事的可能性(包括對自己的身體做某事或用自己的身體做某事)。因此,大腦構建的世界類型取決于它可以采取的行動類型,”鮑爾寫道。“換句話說,心智的一個核心特征是它是具身化的。它基于對有機體可能進行的干預的假設和推論構建了一個世界。”
機器有思想嗎?
有趣的是,雖然鮑爾的書致力于讓讀者更廣泛地了解不同思維的樣子,但他并不認為計算機有思維。
“讓我們明確一點:(在這個星球上)建造的每一個機器人和計算機都是無意識的。在斷言這一點時,我感到有些不安,因為我可能只是在重復我曾經痛恨的對動物思維的偏見,”他寫道。“盡管如此,我認為這種說法是正確的,或者至少會被該領域的專家普遍認為是正確的。”
他接著說,當你嘲笑他們時,當前的 AI 助手不會感到難過,機器人不需要道德權利。在鮑爾看來,摒棄機器思維的主要原因是邏輯電路設計原理與意識的推測理論之間的差異太大。
“今天的計算機,盡管具有驚人的能力,但仍然更接近于復雜的電燈開關陣列,而不是基本的昆蟲大腦,”鮑爾寫道,這一聲明無疑會受到當今許多科學家的歡迎。
然而,他確實提出了兩個警告:首先,不能保證在由有機大腦中發(fā)現(xiàn)的濕件(例如電子元件)以外的其他東西構建的設備中不會出現(xiàn)類似心智的東西。其次,我們不確定今天的人工智能是如何工作的,這對于非常大的神經網絡來說至少是正確的。
由此,他得出結論,我們應該將當前的人工智能系統(tǒng)比喻為“原始思維的集合”,就像早期埃迪卡拉生物的神經系統(tǒng)一樣。
“我們不知道它們是否真的是那種可以承載真正思想的東西——永遠不會有某種東西就像是一臺機器。然而,我們可以而且應該開始從認知角度考慮當今的計算機和 AI:從概念上(如果不是道德上)將它們視為思想,”他寫道。
如果我們回到“具身心靈”理論,那么我們必須得出結論,今天的人工智能擁有的心靈與我們的非常不同。此外,我們必須承認,人工智能(尤其是機器學習)目前的發(fā)展方向并不是復制人類思維。擴展當今的神經網絡架構并向其投入更多的數(shù)據(jù)和計算能力并不能彌補這一差距。
Ball 引用認知科學家和 AI 專家 Josh Tenenbaum 和其他 AI 專家的話說:“我們相信未來幾代的神經網絡將與當前最先進的神經網絡大相徑庭。他們可能被賦予了直覺物理學、心智理論、因果推理和其他[類似人類的]能力。”
我們正在達到我們的人工智能系統(tǒng)越來越有能力處理復雜任務的地步。在某些情況下,人工智能系統(tǒng)被賦予了敏感的任務,例如駕駛汽車、做出財務和招聘決策以及診斷患者。對人工智能“頭腦”有正確的看法將有助于我們更好地理解我們可以信任他們的任務類型以及他們在哪里達到了極限。
“雖然我們缺乏對人工智能工作推理的任何掌握,但我們更有可能沉迷于擬人化的習慣,將類似人類的認知投射到它不存在的地方,”鮑爾寫道。“但把頭腦歸于愚蠢的事情是一回事。將錯誤的思維歸因于真正擁有某種認知能力的系統(tǒng)是另一回事,也許更危險。我們的機器不像我們那樣思考——所以我們最好了解它們。”