有人說,
人工智慧(Artificial Intelligence)是未來。
人工智慧是科幻小說。
人工智慧已經是我們日常生活的一部分。
所有這些陳述都 ok,
這主要取決於你所設想的人工智慧是哪一類。
例如,今年早些時候,
Google DeepMind 的 Alphago 程式
擊敗了韓國圍棋大師李世乭九段。
人工智慧、機器學習和深度學習
這些詞成為媒體熱詞,
用來描述 DeepMind 是如何獲得成功的。
儘管三者都是 AlphaGo 擊敗李世乭的因素,
但它們不是同一概念。
區別三者最簡單的方法:
想像同心圓,
人工智慧(AI)是半徑最大的同心圓,
向內是機器學習(Machine Learning),
最內是深入學習(Deep Learning)。
繼續看下去...
(贊助商連結...)
從概念的而提出到繁榮
自從幾位元電腦科學家
在 1956 年的達特茅斯會議上提到這個詞以後,
人工智慧就縈繞在實驗研究者們心中,不斷醞釀。
在此後的幾十年裡,
人工智慧被標榜為成就人類文明美好未來的關鍵。
在過去的幾年裡,特別是 2015 以來,
人工智慧開始大爆發。
這在很大程度上提高了 GPU 的廣泛可用性,
使得並行處理速度越來越快,
使用更便宜,而且功能更強大。
整個大資料運動擁有無限的存儲和大量的資料:
圖像,文本,交易,映射資料等等。
人工智慧——
機器所賦予的人的智慧
早在 1956 年夏天的會議上,
人工智慧先驅者的夢想
是建立一個由新興電腦啟用的複雜的機器,
具有與人的智慧相似的特徵。
這是我們認為的「強人工智慧」(General AI),
而神話般的機器則會擁有我們所有的感知,
甚至更多,並且像人類一樣思考。
你已經在電影中見過這些機器無休止地運動,
像朋友如 C-3PO,或者敵人如終結者。
一般的人工智慧機器
仍然只是出現在電影和科幻小說中。
我們目前可以實現的
還是侷限於「弱人工智慧」(Narrow AI)。
這些技術能夠像人類一樣執行特定的任務,
或者比人類做的更好。
像 Pinterest 上的圖像分類,
Facebook 上的人臉識別等。
這些都是弱人工智慧實踐中的例子。
這些技術展示了人類智力的一些方面。
但如何展示?這些智力是從哪裡來的?
這些問題促使我們進入到下一個階段,機器學習。
機器學習——
一種實現人工智慧的方法
機器學習最根本的點
在於使用演算法來分析資料的實踐、學習,
然後對真實的事件作出決定或預測。
而不是用一組特定的指令
生成的硬編碼軟體程式來解決特定任務,
機器是通過使用大量的資料和演算法來「訓練」,
這樣就給了它學習如何執行任務的能力。
機器學習是早期人工智慧人群思考的產物,
多年來形成的演算法包括決策樹學習、
歸納邏輯程式設計、聚類、強化學習、
貝葉斯網路等等。
正如我們所知,所有這些都沒有實現
強人工智慧的最終目標,
而早期的機器學習方法
甚至連弱人工智慧都沒有觸及到。
事實證明,
多年來機器學習的
最佳應用領域之一是電腦視覺,
儘管仍然需要大量的手工編碼來完成這項工作。
人們會去寫手工編碼分類器,
如邊緣檢測濾波器,
以便程式可以識別一個目標的啟動和停止;
進行形狀檢測以確定它是否有八個側面;
同時確保分類器能夠識別字母「s-t-o-p.」
從那些手工編碼分類器中,
機器就會開發演算法
使得圖像和「學習」更有意義,
用來確定這是否是一個停止標誌。
結果還算不錯,但這還不夠。
特別是在霧天當標誌不那麼清晰,
或有一棵樹掩蓋了標誌的一部分時,
就難以成功了。
還有一個原因,
電腦視覺和圖像檢測還不能與人類相媲美,
它太脆弱,太容易受到周圍環境的影響。
隨著時間的推移,
學習演算法改變了這一切。
深度學習——
一種實現機器學習的技術
在過去的幾十年中,
早期機器學習的另一種演算法是人工神經網路。
神經網路的靈感
來自於我們對人類大腦生物學的理解:
所有這些神經元之間的相互聯繫。
在一定的物理距離內,
生物大腦中的任何神經元
可以連接到其他神經元,
而人工神經網路
有離散的層、連接和資料傳播的方向。
例如,你可以把一個圖像分割成很多部分,
這些可以輸入到神經網路的第一層。
在第一層中的單個神經元,
然後將資料傳遞到第二層。
第二層神經元做它的任務,等等,
直到最後一層,那麼最終結果就產生了。
每個神經元都為其輸入分配權重,
分配的權重正確與否與執行的任務相關。
結果,最終的輸出由所有的權重所決定。
這樣,還是以「停止」標誌牌為例。
將「停止」標誌牌圖像的元素抽離分析,
然後由神經元「檢查」:
其八邊形的外形,消防車火紅的顏色,
鮮明的字母,交通標誌的大小,
處於運動或靜止的狀態。
神經網路主要任務是總結是否是個停止標誌。
隨即,基於權重、
經過深思熟慮「概率向量」的概念出現。
該案例中,該系統中 86% 的可能是停止標誌,
7% 的可能是速度限制標誌,
5% 的可能性是掛在樹上的風箏等等。
這樣,網路結構便會告知神經網路是否正確。
但這個例子還是非常超前。
因為直到最近,
神經網路還是被人工智慧研究所忽略。
實際上,在人工智慧出現之初,
神經網路就已經顯現了,
在「智慧」方面還是產生很小的價值。
問題是甚至最基本的神經網路都是靠大量的運算。
不過,多倫多大學的 Geoffrey Hinton 領導的
一個研究小組始終專注於其中,
最終實現以超算為目標的
平行算法的運算且概念的證明,
但直到 GPU 得到廣泛利用,
這些承諾才得以實現。
回到之前「停止」標誌的例子。
神經網路是被調製或「訓練」出來的,
並且不時遇到錯誤的應答。
它所需要的就是訓練。
需要呈現成百上千甚至上百萬的圖像,
直到神經元輸入的權重被準確調製,
那麼實際上每次都能得到正確的資訊,
無論是否有霧,無論晴天還是雨天。
只有在那一點,
神經網路才學會一個停止標誌是什麼樣的,
Facebook 上你媽媽的臉是什麼樣,
又或者是吳恩達(Andrew Ng)教授
2012 年在 Google 上學習到的貓的樣子。
吳恩達的突破在於將這些神經網路顯著增大,
增加了層數和神經元,
並通過系統的訓練運行大量的資料。
在吳教授所舉案例中,
資料就是 YouTube 視頻中 1000 萬張圖像。
他將深度學習中添加了「深度」,
也就是這些神經網路中的所有層。
通過在某些場景中深度學習,
機器訓練的圖像識別要比人做得好:
從貓到辨別血液中癌症的指標,
再到核磁共振成像中腫瘤。
Google 的 AlphaGo 先是學會了如何下棋,
然後它與自己下棋訓練。
通過不斷地與自己下棋,反復練習,
以此訓練自己的神經網路。
深度學習,賦予人工智慧光明的未來
深度學習使得許多機器學習應用得以實現,
並拓展了人工智慧的整個領域。
深度學習一一實現了各種任務,
並使得所有的機器輔助變成可能。
無人駕駛汽車、預防性醫療保健、
甚至的更好的電影推薦,
都觸手可及或即將成為現實。
人工智慧就在現在,也在未來。
有了深度學習,人工智慧可能甚至達到
像我們暢想的科幻小說一樣效果。
我拿走了你的 C-3PO,
當然,你有《終結者》就行。
作者:人稱T客
未經授權,請勿轉載!
(責任編輯:CMoney編輯 / Alodia)
(圖/shutterstock)