人工智慧發展史

人工智慧中的重要角色:處理器

· AI,nvidia


接下來,讓我們從人工智慧的發展來看看處理器所扮演的角色有多麼重要吧!

先跳過古早的幻想和神話,1950年圖靈發表了一篇論文,跨時代地預言機器智能的可能性,並提出了著名的圖靈測試,在此定義了什麼是人工智慧。圖靈提出,如果一台機器能夠與人類展開對話(通過電傳設備)而不能被辨別出其機器身份,那麼就可以說這台機器具有智能。這一個簡化的測試定義使得圖靈能夠令人信服地說明「思考的機器」是可能的。

1956年8月31日約翰·麥卡錫等人發起達特茅斯夏季人工智慧研究計劃(Dartmouth Summer Research Project on Artificial Intelligence),旨在召集志同道合的人共同討論「人工智慧」並確定了AI的名稱及任務。會議持續了一個月,基本上以大範圍的集思廣益為主。這就催生了後來人所共知的人工智慧革命。

在接下來的20年間1956 – 1974,各領域的專家開始利用電腦處理各種不同的問題,比較主要具影響力的包括:搜索式推理、自然語言、微世界等。但是接下來,整個AI的發展就遇到了瓶頸,直到1980年代「專家系統」的推出,開始為全世界的公司採納,此時知識處理成了主流AI,由於知識處理及專家系統可以立即應用在各種商業數據分析上,所以主導了整個AI的發展,但是也因為專家系統只侷限在一個很小的領域,也避開了常識性的問題處理,雖然有IBM在背後支持,開發出強大的Watson系統,成為第一個在棋盤上擊敗人類西洋棋王的系統,但仍因為知識範疇的限制,而為人工智慧帶來另一個低谷。

一直到2011年,處理器的處理能力不斷提升,再加上Internet的快速成長,許多數據不斷在網路上產生,早期被中斷的類神經網路理論,因為處理器的快速發展,突然可以實現。

到2016年,AI相關產品、硬體、軟體等的市場規模已經超過80億美元,深度學習(特別是CNN和RNN)更是大力推動了圖像和視頻處理、文本分析、語音識別等問題研究進程。

電腦視覺 Computer Vision

電腦視覺在人工智慧中扮演了非常重要的角色。現在掀起AI浪潮的ChatGPT,主要是文字生成,但文字及語言都有既定的模式及規則,真正困難的地方在於對資料的分類並產生結論。而電腦視覺就更加困難了,由於電腦處理的資料都是二進制,也就是必須數位化後的資料,但我們的世界是一個類比的環境,任何一個實體世界中的物件的資料,都有著連續的數據,也就是說電腦要能夠處理這些物件及環境,必須將類比的資料數位化,而所謂的數位化,就會造成原始資料的失真,畢竟數位資料是無法完全還原成類比的實際數據。電腦的視覺也是一樣,影像數位化後進入電腦處理,就出現了幾個與我們人類不同的處理地方:

  1. 2D的平面畫面 vs 3D的立體影像
  2. 物件及環境
  3. 相對位置
  4. 移動

試想,在缺乏這些資訊的情況下,電腦必須要先做影像及物件的分離判斷,接下來再根據影像分類整理,然後再透過資料庫搜尋,才能辨識出物體。要做如此大量的影像處理及資料搜尋,就需要強大的運算能力及資料處理技術。