當(dāng)今的 AI 系統(tǒng)可以在廣泛的領(lǐng)域中執(zhí)行復(fù)雜的任務(wù),例如數(shù)學(xué),游戲和逼真的圖像生成。但是當(dāng)我們接近 AI 的一些早期目標(biāo)時(shí),如管家機(jī)器人和自動(dòng)駕駛汽車,這些目標(biāo)仍將逐漸消失。
圣達(dá)菲研究所戴維斯復(fù)雜性教授、《人工智能:人類思維指南》的作者梅拉妮?米切爾(Melanie Mitchell)說,錯(cuò)過這些目標(biāo)的持續(xù)循環(huán)的一部分是由于對(duì) AI 和自然智能的錯(cuò)誤假設(shè)。
米切爾(Mitchell)在題為“為什么 AI 比我們想象的更難的原因”的新論文中提出了關(guān)于 AI 的四個(gè)常見謬論,這些謬論不僅在公眾和媒體之間,而且在專家之間引起誤解。這些謬論給人一種錯(cuò)誤的信心,使我們對(duì)實(shí)現(xiàn)人工智能,可以與人類的認(rèn)知能力和一般問題解決能力相匹配的人工智能系統(tǒng)有多大的信心。
狹窄的 AI 和一般的 AI 規(guī)模不一樣
現(xiàn)有的 AI 可以很好地解決狹窄的問題。比如在圍棋和國際象棋上超越人類,以超乎尋常的準(zhǔn)確性在 X 射線圖像中發(fā)現(xiàn)癌變模式,并將音頻數(shù)據(jù)轉(zhuǎn)換為文本。
但是,設(shè)計(jì)可以解決單個(gè)問題的系統(tǒng)并不一定會(huì)使我們更接近解決更復(fù)雜的問題。米切爾(Mitchell)將第一個(gè)謬論描述為“狹義情報(bào)與普通情報(bào)是連續(xù)的”。
米切爾在論文中寫道:“即使人們?cè)讵M窄的區(qū)域內(nèi)看到一臺(tái)機(jī)器在做奇妙的事情,他們通常會(huì)認(rèn)為該領(lǐng)域?qū)νㄓ?AI 的發(fā)展要遠(yuǎn)得多。”
例如,當(dāng)今的自然語言處理系統(tǒng)在解決許多不同問題(例如翻譯,文本生成以及對(duì)特定問題的問答)方面已經(jīng)走了很長(zhǎng)一段路。
同時(shí),我們擁有可以將語音數(shù)據(jù)實(shí)時(shí)轉(zhuǎn)換為文本的深度學(xué)習(xí)系統(tǒng)。每一項(xiàng)成就的背后都是數(shù)千小時(shí)的研發(fā)(以及在計(jì)算和數(shù)據(jù)上花費(fèi)的數(shù)百萬美元)。但是 AI 社區(qū)仍然沒有解決創(chuàng)建能夠參與開放式對(duì)話而又不會(huì)長(zhǎng)時(shí)間失去連貫性的座席的問題。這樣的系統(tǒng)不僅需要解決較小的問題,還需要解決更多的問題。
它需要常識(shí),這是 AI 尚未解決的關(guān)鍵挑戰(zhàn)之一。
簡(jiǎn)單的事情很難自動(dòng)化
當(dāng)涉及到人類時(shí),我們希望一個(gè)聰明的人去做艱苦的事情,這需要多年的學(xué)習(xí)和實(shí)踐。例子可能包括諸如解決微積分和物理問題,在大師級(jí)別下棋,或背誦很多詩之類的任務(wù)。
但是數(shù)十年來的 AI 研究證明,那些需要自動(dòng)關(guān)注的艱巨任務(wù)更容易實(shí)現(xiàn)自動(dòng)化。簡(jiǎn)單的任務(wù),我們認(rèn)為理所當(dāng)然的事情,卻很難自動(dòng)化。米切爾(Mitchell)將第二個(gè)謬誤描述為“容易的事情很容易,而艱難的事情很難。”
“我們?nèi)祟惒患铀妓鞯刈龅氖虑?- 放眼世界,了解我們所看到的東西,進(jìn)行對(duì)話,走在擁擠的人行道上而不會(huì)撞到任何人,這對(duì)機(jī)器來說是最艱巨的挑戰(zhàn),”米切爾寫道。
相反,讓機(jī)器去做對(duì)人類來說非常困難的事情通常會(huì)更容易;例如,解決復(fù)雜的數(shù)學(xué)問題,精通國際象棋和圍棋之類的游戲以及在數(shù)百種語言之間翻譯句子對(duì)于機(jī)器來說都變得相對(duì)容易了。
例如,考慮視覺。數(shù)十億年來,生物體已經(jīng)開發(fā)出用于處理光信號(hào)的復(fù)雜設(shè)備。動(dòng)物會(huì)用眼睛盤點(diǎn)周圍的物體,導(dǎo)航周圍的環(huán)境,尋找食物,檢測(cè)威脅并完成許多其他對(duì)生存至關(guān)重要的任務(wù)。我們?nèi)祟悘淖嫦饶抢锢^承了所有這些能力,并且在沒有意識(shí)的情況下使用它們。但是,其基本機(jī)制確實(shí)比使高中和大學(xué)感到沮喪的大型數(shù)學(xué)公式更為復(fù)雜。
恰當(dāng)?shù)睦樱何覀內(nèi)匀粵]有像人類視覺一樣通用的計(jì)算機(jī)視覺系統(tǒng)。我們?cè)O(shè)法創(chuàng)建了人工神經(jīng)網(wǎng)絡(luò),可以大致模擬動(dòng)物和人類視覺系統(tǒng)的各個(gè)部分,例如檢測(cè)物體和分割圖像。但是它們很脆弱,對(duì)許多不同種類的干擾都很敏感,并且它們無法模仿生物視覺可以完成的全部任務(wù)。例如,這就是為什么無人駕駛汽車中使用的計(jì)算機(jī)視覺系統(tǒng)需要使用激光雷達(dá)和地圖數(shù)據(jù)等先進(jìn)技術(shù)進(jìn)行補(bǔ)充的原因。
另一個(gè)被證明是非常困難的領(lǐng)域是感覺運(yùn)動(dòng)技能,人類無需經(jīng)過明確的培訓(xùn)即可掌握這些技能。想想如何處理物體,行走,奔跑和跳躍。這些是您可以在沒有意識(shí)的情況下完成的任務(wù)。實(shí)際上,在走路時(shí),您可以做其他事情,例如聽播客或打電話。但是,對(duì)于當(dāng)前的 AI 系統(tǒng)而言,這些技能仍然是一項(xiàng)巨大而昂貴的挑戰(zhàn)。
米切爾寫道:“人工智能比我們想象的要難,因?yàn)槲覀冊(cè)诤艽蟪潭壬弦庾R(shí)不到自己思考過程的復(fù)雜性。”
擬人化 AI 沒有幫助
人工智能領(lǐng)域充滿了詞匯量,使軟件與人類智能處于同一水平。我們使用諸如“學(xué)習(xí)”,“理解”,“閱讀”和“思考”之類的術(shù)語來描述 AI 算法的工作方式。盡管此類擬人化術(shù)語通常用作簡(jiǎn)化復(fù)雜軟件機(jī)制的簡(jiǎn)寫,但它們可能誤導(dǎo)我們認(rèn)為當(dāng)前的 AI 系統(tǒng)就像人類的大腦一樣運(yùn)作。
Mitchell 將此謬誤稱為“一廂情愿的助記符的誘惑”,并寫道:“這種簡(jiǎn)寫可能會(huì)誤導(dǎo)試圖理解這些結(jié)果的公眾(以及報(bào)道這些結(jié)果的媒體),并且還會(huì)無意識(shí)地影響甚至 AI 專家的思考方式。他們的系統(tǒng)以及這些系統(tǒng)與人類智能的相似程度。”
一廂情愿的謬論也導(dǎo)致 AI 社區(qū)以令人誤解的方式命名算法評(píng)估基準(zhǔn)。例如,考慮由 AI 中一些最受尊敬的組織和學(xué)術(shù)機(jī)構(gòu)開發(fā)的通用語言理解評(píng)估(GLUE)基準(zhǔn)。GLUE 提供了一組任務(wù),這些任務(wù)可以幫助評(píng)估語言模型如何將其功能推廣到其已受訓(xùn)的任務(wù)之外。但是,與媒體所描述的相反,如果 AI 代理獲得的 GLUE 得分高于人類,則并不意味著它的語言理解能力要高于人類。
Mitchell 寫道:“雖然在這些特定基準(zhǔn)上機(jī)器的性能優(yōu)于人類,但 AI 系統(tǒng)仍遠(yuǎn)不能與我們與基準(zhǔn)名稱相關(guān)聯(lián)的更一般的人類能力相匹配。”
如意算術(shù)的一個(gè)明顯例子是 Facebook 人工智能研究公司 2017 年的一個(gè)項(xiàng)目,科學(xué)家在該項(xiàng)目中訓(xùn)練了兩個(gè) AI 代理以基于人類對(duì)話的任務(wù)進(jìn)行談判。在他們的博客文章中,研究人員指出“更新兩個(gè)代理的參數(shù)會(huì)導(dǎo)致與人類語言的差異,因?yàn)榇黹_發(fā)了自己的語言進(jìn)行談判(強(qiáng)調(diào)我的意思)。”
這導(dǎo)致了一系列的點(diǎn)擊誘餌文章,它們警告了 AI 系統(tǒng)變得比人類更智能,并且正在以秘密方言進(jìn)行交流。四年后,最先進(jìn)的語言模型仍然難以理解大多數(shù)人在很小的年齡就沒有受到指導(dǎo)的情況下所學(xué)的基本概念。
沒有身體的 AI
智慧能否與世界豐富的物理經(jīng)驗(yàn)孤立地存在?這是科學(xué)家和哲學(xué)家?guī)讉€(gè)世紀(jì)以來一直困惑的問題。
一種思想流派認(rèn)為,智力全在大腦中,并且可以與身體分離,這也被稱為“桶中的大腦”理論。米切爾(Mitchell)稱其為“智力全在腦中”的謬論。有了正確的算法和數(shù)據(jù),我們就可以創(chuàng)建可以生活在服務(wù)器中并與人類智能相匹配的 AI。對(duì)于這種思維方式的擁護(hù)者,尤其是那些支持純粹的基于深度學(xué)習(xí)的方法的人,達(dá)到通用 AI 取決于收集適量的數(shù)據(jù)并創(chuàng)建越來越大的神經(jīng)網(wǎng)絡(luò)。
同時(shí),越來越多的證據(jù)表明這種方法注定會(huì)失敗。她寫道:“越來越多的研究人員正在質(zhì)疑“全腦”信息處理模型的基礎(chǔ),以理解智能并創(chuàng)建人工智能。”
人和動(dòng)物的大腦已經(jīng)與所有其他人體器官一起進(jìn)化,其最終目標(biāo)是提高生存機(jī)會(huì)。我們的智力與身體的極限和能力緊密相關(guān)。嵌入式 AI 的領(lǐng)域不斷擴(kuò)大,其目的是通過通過不同的感官刺激與環(huán)境互動(dòng)來創(chuàng)建能夠發(fā)展智能技能的主體。
米切爾(Mitchell)指出,神經(jīng)科學(xué)研究表明“控制認(rèn)知的神經(jīng)結(jié)構(gòu)與控制感覺和運(yùn)動(dòng)系統(tǒng)的神經(jīng)結(jié)構(gòu)緊密相連,抽象思維利用了基于人體的神經(jīng)“圖”。”事實(shí)上,越來越多的證據(jù)和研究證明了來自反饋的反饋。大腦的不同感覺區(qū)域會(huì)影響我們的有意識(shí)和無意識(shí)思想。
米切爾(Mitchell)支持這樣的觀念,即情感,感覺,潛意識(shí)偏見和身體經(jīng)驗(yàn)與智力密不可分。她寫道:“在我們的心理學(xué)或神經(jīng)科學(xué)知識(shí)上,沒有任何東西可以支持 ' 純粹的理性 ' 與可以影響我們的認(rèn)知和目標(biāo)的情感和文化偏見分開的可能性。”
“相反,我們從體現(xiàn)認(rèn)知的研究中學(xué)到的是,人類智力似乎是一個(gè)高度集成的系統(tǒng),具有緊密相關(guān)的屬性,包括情感,欲望,強(qiáng)烈的自我意識(shí)和自主性以及對(duì)世界的常識(shí)。尚不清楚這些屬性是否可以分開。”
人工智能常識(shí)
發(fā)展通用人工智能需要對(duì)我們對(duì)智能本身的理解進(jìn)行調(diào)整。我們?nèi)栽谂Χx什么是智能以及如何在人工和自然界中對(duì)其進(jìn)行測(cè)量。
“很明顯,為了更有效地實(shí)現(xiàn)和評(píng)估 AI 的進(jìn)步,我們將需要開發(fā)出更好的詞匯來談?wù)摍C(jī)器可以做什么,”Mitchell 寫道。
“從更廣泛的意義上講,我們將需要對(duì)智能進(jìn)行更好的科學(xué)理解,因?yàn)樗w現(xiàn)在自然界的不同系統(tǒng)中。”
米切爾(Mitchell)在論文中討論的另一個(gè)挑戰(zhàn)是常識(shí)性挑戰(zhàn),她將其描述為“一種當(dāng)今最先進(jìn)的 AI 系統(tǒng)所缺少的保護(hù)傘”。
常識(shí)包括我們獲得的有關(guān)世界的知識(shí),并且每天無需付出太多努力就可以應(yīng)用它。當(dāng)我們還是孩子的時(shí)候,通過探索世界,我們可以學(xué)到很多東西,而無需明確指示。其中包括諸如空間,時(shí)間,重力和物體的物理屬性之類的概念。
例如,一個(gè)孩子很小的時(shí)候就知道,當(dāng)一個(gè)物體被另一個(gè)物體擋住時(shí),它并沒有消失并繼續(xù)存在,或者當(dāng)一個(gè)球在桌子上滾動(dòng)并到達(dá)壁架時(shí),它應(yīng)該掉下來。我們使用這些知識(shí)來構(gòu)建世界的心理模型,進(jìn)行因果推斷,并以相當(dāng)高的準(zhǔn)確性預(yù)測(cè)未來狀態(tài)。
當(dāng)今的 AI 系統(tǒng)缺少這種知識(shí),這使它們變得不可預(yù)測(cè)且需要大量數(shù)據(jù)。實(shí)際上,本文開頭提到的兩個(gè) AI 應(yīng)用程序 - 客房清潔和駕駛是大多數(shù)人通過常識(shí)和一點(diǎn)點(diǎn)實(shí)踐學(xué)習(xí)的東西。
常識(shí)還包括有關(guān)人類本性和生活的基本事實(shí),我們?cè)趯?duì)話和寫作中忽略的事物,因?yàn)槲覀冎牢覀兊淖x者和聽眾都知道它們。例如,我們知道如果兩個(gè)人在“打電話”,則意味著他們不在同一個(gè)房間。我們還知道,如果“約翰伸手去拿糖”,則意味著在約翰附近某處有一個(gè)裝有糖的容器。這種知識(shí)對(duì)于自然語言處理等領(lǐng)域至關(guān)重要。
“還沒有人知道如何在機(jī)器中捕獲這樣的知識(shí)或能力。這是人工智能研究的當(dāng)前前沿,一種令人鼓舞的前進(jìn)方式是利用有關(guān)幼兒中這些能力發(fā)展的已知知識(shí)。”米切爾寫道。
盡管我們?nèi)匀徊恢涝S多問題的答案,但尋找解決方案的第一步是要意識(shí)到我們自己的錯(cuò)誤思想。Mitchell 寫道:“了解這些謬論及其微妙的影響可以為創(chuàng)建更健壯,值得信賴甚至可能真正智能的 AI 系統(tǒng)指明方向。”