|
過度炒作的潛在風險
當前 AI 過度炒作的一個最大風險是再一次經歷 AI 寒冬,就像 1970 年代那樣。儘管現在的 AI 應用比 1970 年代多得多,但炒作仍然是主要擔憂。
當吳恩達這樣的高知名度人物在《哈佛商業評論》上撰文稱自動化即將到來(與現實情況有很大出入),過度預期就帶來了風險。機器實際上無法做很多普通人一秒內就可以完成的事情,從理解世界到理解句子。健康的人類不會把烏龜錯認成步槍或把停車牌認成冰箱。
大量投資 AI 的人最後可能會失望,尤其是自然語言處理領域。一些大型項目已經被放棄,如 Facebook 的 M 計劃,該項目於 2015 年 8 月啟動,宣稱要打造通用個人虛擬助手,後來其定位下降為幫助用戶執行少數定義明確的人物,如日曆記錄。
可以公平地說,聊天機器人還沒有達到數年前炒作中的預期。
舉例來說,如果無人駕駛汽車在大規模推廣后被證明不安全,或者僅僅是沒有達到很多承諾中所說的全自動化,讓大家失望(與早期炒作相比),那麼整個 AI 領域可能會迎來大滑坡,不管是熱度還是資金方面。我們或許已經看到苗頭,正如 Wired 最近發布的文章《After peak hype, self-driving cars 14 enter the trough of disillusionment》中所說的那樣(https://www.wired.com/story/self-driving-cars-challenges/)。
還有很多其他嚴重的擔憂,不只是末日般的場景(現在看來這似乎還是科幻小說中的場景)。
我自己最大的擔憂是 AI 領域可能會陷入局部極小值陷阱,過分沉迷於智能空間的錯誤部分,過於專註於探索可用但存在局限的模型,熱衷於摘取易於獲取的果實,而忽略更有風險的「小路」,它們或許最終可以帶來更穩健的發展路徑。
我想起了 Peter Thiel 的著名言論:「我們想要一輛會飛的汽車,得到的卻是 140 個字元。」我仍然夢想著 Rosie the Robost 這種提供全方位服務的家用機器人,但是現在,AI 六十年歷史中,我們的機器人還是只能玩音樂、掃地和廣告競價。
沒有進步就是恥辱。AI 有風險,也有巨大的潛力。我認為 AI 對社會的最大貢獻最終應該出現在自動科學發現等領域。但是要想獲得成功,首先必須確保該領域不會陷於局部極小值。
05
什麼會更好?
儘管我勾畫了這麼多的問題,但我不認為我們需要放棄深度學習。相反,我們需要對其進行重新概念化:它不是一個普遍的解決辦法,而僅僅只是眾多工具中的一個。我們有電動螺絲刀,但我們還需要鎚子、扳手和鉗子,因此我們不能只提到鑽頭、電壓表、邏輯探頭和示波器。
在感知分類方面,如果有大量的數據,那麼深度學習就是一個有價值的工具。但在其它更官方的認知領域,深度學習通常並不是那麼符合要求。那麼問題是,我們的方嚮應該是哪?下面有四個可能的方向。
5.1 無監督學習
最近深度學習先驅 Geoffrey Hinton 和 Yann LeCun 都表明無監督學習是超越有監督、少數據深度學習的關鍵方法。
但是我們要清楚,深度學習和無監督學習並不是邏輯對立的。深度學習主要用於帶標註數據的有監督學習,但是也有一些方法可以在無監督環境下使用深度學習。但是,許多領域都有理由擺脫監督式深度學習所要求大量標註數據。
無監督學習是一個常用術語,往往指的是幾種不需要標註數據的系統。一種常見的類型是將共享屬性的輸入「聚類」在一起,即使沒有明確標記它們為一類也能聚為一類。Google 的貓檢測模型(Le et al., 2012)也許是這種方法最突出的案例。
Yann LeCun 等人提倡的另一種方法(Luc, Neverova, Couprie, Verbeek, & LeCun, 2017)起初並不會相互排斥,它使用像電影那樣隨時間變化的數據而替代標註數據集。
直觀上來說,使用視頻訓練的系統可以利用每一對連續幀替代訓練信號,並用來預測下一幀。因此這種用第 t 幀預測第 t+1 幀的方法就不需要任何人類標註信息。
我的觀點是,這兩種方法都是有用的(其它一些方法本文並不討論),但是它們本身並不能解決第 3 節中提到的問題。這些系統還有一些問題,例如缺少了顯式的變數。而且我也沒看到那些系統有開放式推理、解釋或可調式性。
也就是說,有一種不同的無監督學習概念,它雖然很少有人討論,但是仍然非常有意思:即兒童所進行的無監督學習。
孩子們通常會為自己設置一個新的任務,比如搭建一個樂高積木塔,或者攀爬通過椅子的窗口。通常情況下,這種探索性的問題涉及(或至少似乎涉及)解決大量自主設定的目標(我該怎麼辦?)和高層次的問題求解(我怎麼把我的胳膊穿過椅子,現在我身體的其他部分是不是已經通過了?),以及抽象知識的整合(身體是如何工作的,各種物體有哪些窗口和是否可以鑽過去等等)。
如果我們建立了能設定自身目標的系統,並在更抽象的層面上進行推理和解決問題,那麼人工智慧領域將會有重大的進展。
5.2 符號處理和混合模型的必要性
另一個我們需要關注的地方是經典的符號 AI,有時候也稱為 GOFAI(Good Old-Fashioned AI)。符號 AI 的名字來源於抽象對象可直接用符號表示這一個觀點,是數學、邏輯學和計算機科學的核心思想。
像 f = ma 這樣的方程允許我們計算廣泛輸入的輸出,而不管我們以前是否觀察過任何特定的值。計算機程序也做著同樣的事情(如果變數 x 的值大於變數 y 的值,則執行操作 a)。
符號表徵系統本身經常被證明是脆弱的,但是它們在很大程度上是在數據和計算能力比現在少得多的時代發展起來的。如今的正確之舉可能是將善於感知分類的深度學習與優秀的推理和抽象符號系統結合起來。
人們可能會認為這種潛在的合併可以類比於大腦;如初級感知皮層那樣的感知輸入系統好像和深度學習做的是一樣的,但還有一些如 Broca 區域和前額葉皮質等領域似乎執行更高層次的抽象。
大腦的能力和靈活性部分來自其動態整合許多不同計演演算法的能力。例如,場景感知的過程將直接的感知信息與關於對象及其屬性、光源等複雜抽象的信息無縫地結合在一起。
現已有一些嘗試性的研究探討如何整合已存的方法,包括神經符號建模(Besold et al., 2017)和最近的可微神經計算機(Graves et al., 2016)、通過可微解釋器規劃(Bošnjak, Rocktäschel, Naradowsky, & Riedel, 2016)和基於離散運算的神經編程(Neelakantan, Le, Abadi, McCallum, & Amodei, 2016)。
雖然該項研究還沒有完全擴展到如像 full-service 通用人工智慧那樣的探討,但我一直主張(Marcus, 2001)將更多的類微處理器運算集成到神經網路中是非常有價值的。
對於擴展來說,大腦可能被視為由「一系列可重複使用的計算基元組成 - 基本單元的處理類似於微處理器中的一組基本指令。這種方式在可重新配置的集成電路中被稱為現場可編程邏輯門陣列」,正如我在其它地方(Marcus,Marblestone,&Dean,2014)所論述的那樣,逐步豐富我們的計算系統所建立的指令集會有很大的好處。
5.3 來自認知和發展心理學的更多洞見
另一個有潛在價值的領域是人類認知(Davis & Marcus, 2015; Lake et al., 2016; Marcus, 2001; Pinker & Prince, 1988)。
機器沒有必要真正取代人類,而且這極易出錯,遠談不上完美。但是在很多領域,從自然語言理解到常識推理,人類依然具有明顯優勢。借鑒這些潛在機制可以推動人工智慧的發展,儘管目標不是、也不應該是精確地複製人類大腦。
對很多人來講,從人腦的學習意味著神經科學;我認為這可能為時尚早。我們還不具備足夠的神經科學知識以真正利用反向工程模擬人腦。人工智慧可以幫助我們破譯大腦,而不是相反。
不管怎樣,它同時應該有來自認知和發展心理學的技術與見解以構建更加魯棒和全面的人工智慧,構建不僅僅由數學驅動,也由人類心理學的線索驅動的模型。
理解人類心智中的先天機制可能是一個不錯的開始,因為人類心智能作為假設的來源,從而有望助力人工智慧的開發;在本論文的姊妹篇中(Marcus,尚在準備中),我總結了一些可能性,有些來自於我自己的早期研究(Marcus, 2001),另一些則來自於 Elizabeth Spelke 的研究(Spelke & Kinzler, 2007)。
來自於我自己的研究的那些重點關注的是表示和操作信息的可能方式,比如用於表示一個類別中不同類型和個體之間不同變數和差異的符號機制;Spelke 的研究則關注的是嬰兒表示空間、時間和物體等概念的方式。
另一個關注重點可能是常識知識,研究方向包括常識的發展方式(有些可能是因為我們的天生能力,但大部分是後天學習到的)、常識的表示方式以及我們如何將常識用於我們與真實世界的交互過程(Davis & Marcus, 2015)。Lerer 等人(2016)、Watters 及其同事(2017)、Tenenbaum 及其同事(Wu, Lu, Kohli, Freeman, & Tenenbaum, 2017)、Davis 和我(Davis, Marcus, & Frazier-Logue, 2017)最近的研究提出了一些在日常的實際推理領域內思考這一問題的不同方法。
第三個關注重點可能是人類對敘事(narrative)的理解,這是一個歷史悠久的概念,Roger Schank 和 Abelson 在 1977 年就已提出,並且也得到了更新(Marcus, 2014; Kočiský et al., 2017)。
5.4. 更大的挑戰
不管深度學習是保持當前形式,還是變成新的東西,抑或被替代,人們也許認為大量的挑戰問題會將系統推進到有監督學習無法通過大型數據集學習到知識。
以下是一些建議,它們部分摘自最近一期的《AI Magazine》特刊(Marcus, Rossi, Veloso - AI Magazine, & 2016, 2016),該雜誌致力於超越我和 Francesca Rossi、Manuelo Veloso 一起編輯的雜誌《Turing Test》:
理解力挑戰(Paritosh & Marcus, 2016; Kočiský et al., 2017)需要系統觀看一個任意的視頻(或者閱讀文本、聽廣播),並就內容回答開放問題(誰是主角?其動機是什麼?如果對手成功完成任務,會發生什麼?)。沒有專門的監督訓練集可以涵蓋所有可能的意外事件;推理和現實世界的知識整合是必需的。
科學推理與理解,比如艾倫人工智慧研究所的第 8 級的科學挑戰(Schoenick, Clark, Tafjord, P, & Etzioni, 2017; Davis, 2016)。儘管很多基本科學問題的答案可輕易從網路搜索中找到,其他問題則需要清晰陳述之外的推理以及常識的整合。
一般性的遊戲玩法(Genesereth, Love, & Pell, 2005),遊戲之間可遷移(Kansky et al., 2017),這樣一來,比如學習一個第一人稱的射擊遊戲可以提高帶有完全不同圖像、裝備等的另一個遊戲的表現。(一個系統可以分別學習很多遊戲,如果它們之間不可遷移,比如 DeepMind 的 Atari 遊戲系統,則不具備資格;關鍵是要獲取累加的、可遷移的知識。)
物理具化地測試一個人工智慧驅動的機器人,它能夠基於指示和真實世界中與物體部件的交互而不是大量試錯,來搭建諸如從帳篷到宜家貨架這樣的系統(Ortiz Jr, 2016)。
沒有一個挑戰可能是充足的。自然智能是多維度的(Gardner, 2011),並且在世界複雜度給定的情況下,通用人工智慧也必須是多維度的。
通過超越感知分類,並進入到推理與知識的更全面整合之中,人工智慧將會獲得巨大進步。
06
結語
為了衡量進步,有必要回顧一下 5 年前我寫給《紐約客》的一篇有些悲觀的文章,推測「深度學習只是構建智能機器面臨的 15 個更大挑戰的一部分」,因為「這些技術缺乏表徵因果關係(比如疾病與癥狀)的方法」,並在獲取「兄弟姐妹」或「相同」等抽象概念時面臨挑戰。它們沒有執行邏輯推理的顯式方法,整合抽象知識還有很長的路要走,比如對象信息是什麼、目標是什麼,以及它們通常如何使用。
正如我們所見,儘管特定領域如語音識別、機器翻譯、棋盤遊戲等方面出現重大進展,儘管在基礎設施、數據量和算力方面的進展同樣令人印象深刻,但這些擔憂中的很多依然存在。
有趣的是,去年開始不斷有其他學者從不同方面開始強調類似的局限,這其中有 Brenden Lake 和 Marco Baroni (2017)、François Chollet (2017)、Robin Jia 和 Percy Liang (2017)、Dileep George 及其他 Vicarious 同事 (Kansky et al., 2017)、 Pieter Abbeel 及其 Berkeley 同僚 (Stoica et al., 2017)。
也許這當中最著名的要數 Geoffrey Hinton,他勇於做自我顛覆。上年 8 月接受 Axios 採訪時他說自己「深深懷疑」反向傳播,因為他對反向傳播對已標註數據集的依賴性表示擔憂。
相反,他建議「開發一種全新的方法」。與 Hinton 一樣,我對未來的下一步走向深感興奮。
|
|