倍可親

回復: 0
列印 上一主題 下一主題

人工智慧是下一個風口?然而並不是,以下是我的理由

[複製鏈接]

845

主題

1065

帖子

1953

積分

商務合作夥伴

有房有車(十三級)

積分
1953
跳轉到指定樓層
樓主
天地一笑 發表於 2016-6-19 10:58 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
  2016-06-18 譚燃 騰訊科技

  

  騰訊科技訊 6月18日,《連線》(Wired)網站日前發表文章稱,雖然「任何足夠先進的技術都與魔法無異」,但當前的深度學習(Deep learning)技術還遠未達到「魔法」的程度。

  谷歌人工智慧(AI)應用AlphaGo戰勝李世石讓全世界感到驚嘆,一些行業權威人士也因此將深度學習技術吹噓成「人腦模擬」。但事實上,機器學習還遠不是一個將從魔瓶里被放出的「妖怪」。它只是一種數學演演算法,是人類在理解智能、建立與人類水平相當的AI過程中向前邁出的一步。

  深度學習就是數學計算

  深度學習正在迅速「吞噬」AI,但不要把這種方興未艾的AI技術誇大其詞。英國知名作家亞瑟·克拉克(Arthur C. Clarke)曾經說過:「任何足夠先進的技術都與魔法無異。」深度學習當然是一種先進技術,它能識別圖片中的物體和人臉,識別語音內容,將一種語言翻譯成另一種語言,甚至還能在圍棋比賽中戰勝人類頂尖高手。但是,深度學習還沒達到「魔法」的程度。

  隨著谷歌、Facebook和微軟等科技巨頭繼續將該技術整合到日常在線服務中,以及全世界仍在為谷歌AlphaGo戰勝李世石而感到驚嘆之際,一些行業權威人士開始將深度學習技術吹噓成「人腦模擬」。其實,機器學習就是簡單的數學計算,只不過計算規模龐大而已。

  事實上,深度計算就是一種演演算法,基於數據來調整神經網路。那麼這句話到底是何含義呢?讓我們來解釋一下:一個神經網路就是一個計算機程序(受大腦結構而啟發),它包括大量彼此連接的節點(或稱 「神經元」),每個節點都會對接收到的數值輸入進行簡單的函數計算(如求和)。這裡的「節點」遠比大腦神經元要簡單,其數量也遠低於大腦神經元的數量。深度學習只是強化了神經網路中的這些節點的連接。

  深度學習是機器學習的一個子域,機器學習是AI領域裡一個非常活躍的研究分支。理論上講,機器學習就是基於數據點收集的一種逼近函數(approximating functions)方法。例如,如果一組數字排列是 「2、4、6…」 ,那麼機器就能預測出第四個數字應該是「8」,第五個數字應該是「10」。計算公式就是2X,X代表排序中的位置。這種演演算法的應用空間很廣泛,例如,在自動駕駛汽車、語音識別和預測機票價格波動等方面均有出色表現。

  在某種意義上講,深度學習不是獨一無二、無規律可尋的。任何機器學習系統,無論是否屬於「深度」學習,都由下列一些基本要素組成:

  執行元素:系統中採取行動的部分。例如,在圍棋比賽中負責走棋的部分。

  目標函數:被學習的函數。例如,圍棋比賽中棋盤位置或走子選擇的映射。

  訓練數據:一套被標記的數據點集合,用於逼近目標函數。例如,圍棋比賽中棋盤位置的集合,其中每一個位置都標註了人類專家在該位置上的走子選擇。

  數據表現:每個數據點通常會被表示為一個預先確定的變數的矢量。例如,圍棋盤上每個棋子的位置。

  學習演演算法:基於訓練數據計算目標函數近似值的演演算法。

  假設空間:學習演演算法可能考慮的函數的空間。

  這種結構能適應所有取機器學習方法,包括從簡單的線性回歸方法到複雜的深度學習演演算法等。從技術上講,我們指的正是監督學習(supervised learning),其中每個數據點都有人類做出的標記。如數據沒有被標記,就是無監督學習,處理起來就要困難許多。如果有部分數據被標記,則屬於半監督學習。

  需要指出的是,機器學習架構中前五個部分都是人工輸入的,意識到這一點很重要。人類程序員建構了其中每個元素,但並未控制機器學習程序。事實上,程序員通常會分析這個學習程序的行為,發現它不夠完美之後,會手動修改其中一個或多個元素。這是一項非常艱苦的工作,在達到期望水平之前,可能需要幾年、甚至更長時間的重複工作。

  幫助人類

  我們會發現,一個學習程序的能力會受到這種架構的嚴格限制。確切而言:

  學習程序無法修改該架構的任何部分。

  學習程序無法自我修改。

  學習程序無法「學習」假設空間之外的函數。

  正因為如此,像AlphaGo這樣的學習程序,在沒有人類幫助的情況下,是無法學會國際象棋或跳棋的。此外,如果未經過大量的專門訓練,大多數程序員都無法成功地修改機器學習系統。即便是訓練有素的數據科學家,也需要大量的時間和資源才能成功建立起一套成功的機器學習系統。

  AlphaGo系統的設計和實現需要3000多萬個從網際網路上挑選的訓練樣本,以及一個龐大的研究人員和工程師團隊的多年努力。其實,僅僅將AlphaGo擊敗歐洲圍棋冠軍樊麾的水平提升到擊敗李世石的水平,也需要幾個月的努力工作 。

  此外,AlphaGo還用到了一系列被稱為「強化學習」的機器學習方法,通過不斷地選擇動作、並觀察結果,以獲得最大的贏面。在強化學習過程中,訓練數據並不是「預先標記」的輸入。相反,該學習程序被提供了一個「獎勵函數」,即為不同的狀態分配不同的獎勵。強化學習方法通過執行某些動作、並觀察獎勵來獲得訓練數據,本文中的機器學習分析同樣也適用於強化學習,該方法仍然受限於其目標函數、數據表現和假設空間等。

  可能性空間

  非常尋常的學習力量帶來了顯著結果,我們通常將其稱之為「進化」。但需要指出的是,我們必須要意識到自然選擇的進化過程和計算機程序模擬過程之間的區別。計算機程序模擬過程被稱為遺傳演演算法(Genetic algorithms),目前這種方法還不是特別成功。

  遺傳演演算法修改了「生命體」的表現形式,而這種表現形式是非常龐大的。例如,人類基因估計包含了10多億比特的信息,這意味著人類DNA序列的可能數量是2的10億次方。探索如此規模的空間所需的成本非常高,但這個空間的拓撲結構讓它無法找到簡單、適合的演演算法。相比之下,圍棋的可能性空間就小很多,利用機器學習方法進行探索就會容易很多。

  為了成功定義一個目標函數,將生活中的一項任務變成為一個簡單的優化問題,計算機科學家、研究人員和統計學家整整花了十年時間。但是,許多問題在被表現為機器可操作的形式之前,還需要進行更多的分析。例如,如何以機器可以理解的語言寫下一句話的含義?正如麻省理工學院教授傑拉爾德·薩斯曼( Gerald Sussman)所說的那樣:「如果表達不出來,就學不會。」在這種情況下,選擇適當的表現方法都做不到,更談不上解決問題了。

  因此,深度學習(或者從廣義上講是「機器學習」)已被證明是一種強大的AI方法,但當前的機器學習方法還需要大量的人工參與,才能將一些問題被表現為機器可操作的形式。之後,還需要大量的技巧和時間反覆定義這些問題,直至這些問題最終被機器解決。最重要的是,該過程還被限定在很窄的範圍內,機器的自主許可權很低。和人不一樣,AI不具備自主性。

  因此,機器學習還遠不是一個將從魔瓶里被放出的「妖怪」。相反,它只是理解智能、建立與人類水平相當的AI過程中所邁出的堅實一步。(譚燃)

說的好啊!我在倍可親論壇打滾這麼多年,所謂閱人無數,就算沒有見過豬走路,也總明白豬肉是啥味道的。一看到樓主的氣勢,我就覺得樓主同在社區里灌水的那幫小混蛋有著本質的差別,那憂鬱的語調,..........
您需要登錄后才可以回帖 登錄 | 註冊

本版積分規則

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2024-4-27 00:12

快速回復 返回頂部 返回列表