摘要: 自深度學習(deep learning)技術問世後,許多人都相信這將是帶領我們逐步走入「通用 AI」(general AI)夢想的關鍵,企業領導者也都在演講中談及 AI 時代將會如何來臨,然而事情真的如此順利嗎?電腦視覺與 AI 領域專家 Filip Piekniewski 並不這麼認為,近日在部落格的一篇文章中,Piekniewski 也詳細談及對於現今 AI 發展進度的看法,在他看來,已經有許多跡象都顯示出 AI 產業的「凜冬將至。
Piekniewski 指出,在 ImageNet 獲得不錯的解決方案時,許多該領域的知名研究人員都積極的受訪並採用相同的論調表示:人們正處在一場巨大的革命前面,從現在開始,所有 AI 發展只會加速。
然而許多年過去了,期待中的加速並未發生,這些受訪的研究人員也不再那麼活躍的鼓吹相同的想法,隨著情緒降溫,他們開始不將深度學習形容為終極演算法,AI 相關論文也從「革命」一詞逐漸改變為「進化」。
相較起前者,進化聽起來要溫和且緩慢許多,而這似乎也更為符合 AI 發展的現實情況。Piekniewski 指出,包含 OpenAI 在內,許多知名研究單位近期都開始變得相對安靜,自 AlphaGo Zoro 問世後 Deepmind 也並未再展現任何更為驚奇的事物,甚至一些論述指出,Google 其實不太確定該如何處理 Deepmind,因為團隊得出的研究成果明顯不如原先預期的「那麼實際」。
除此之外,Piekniewski 也觀察到一些大型科技企業的傑出 AI 研究人員,都開始從實際操作的研究負責人轉任至協助遊說政府資助的職務上,他認為這種細微轉變跡象顯示,像是 Google、Facebook 這些公司對 AI 研究的興趣實際上正在慢慢收斂。
至於深度學習所面臨的瓶頸,Piekniewski 認為自動駕駛(self-driving)技術在現實世界的實際應用便是最明顯的例子,除了 Nvidia、Tesla 在發展自駕技術上都遇到困難, Uber 自駕車在亞利桑那州的死亡車禍更是能夠用來做最好的說明。
從 NTSB 的初步報告中,除了能明顯看出系統設計的問題之外,最為驚人的莫過於發現系統花費了很長一段時間,去試圖判斷眼前的物體究竟是什麼(行人、腳踏車、車輛或其他),而不是做出在該情況下最重要、也是邏輯上唯一該做的決策:確保不會碰撞它。
▲人在碰到危機時多半會先採取行動。(Source:pixabay)
這與人對危機的處理方式並不相同。Piekniewski 指出,儘管人們經常在交通事故後說出當下的判斷標準,像是「我看到前方有騎士所以轉向左邊避開它」,但許多心理物理學(Psychophysics)文獻都曾經提出解釋,人們往往是在當下透過神經系統迅速將其判斷為障礙並採取行動,等到一小段時間過後才會意識到發生了什麼,並試著將其組織為言語進行說明。
這並不僅限於駕駛行為,其實每天我們都會做出許多沒有言語化的的決定,因為言語化是「昂貴的」,需要花費時間,而現實生活中的許多情況並無法提供時間。
這種生存機制來源已久,數十億年來都保護著我們的安全,而在駕駛車輛時,人們自然也就使用到這樣的原始反應,由於這些反應並非專為駕駛行為發展,自然偶爾也會因為這些反射神經引發一些事故。然而整體上來說,這種對空間、速度及周遭警覺的原始能力,對於人類安全仍舊有著許多保障。
只是這種能力大多無法用言語來描述,也難以進行測量,這使得研究人員難以對機器進行這方面的系統改良,Nvidia 過去所提出的 End-to-End 方法雖然理論上可行,但從現實一些測試中我們也可知道情況並非這麼簡單。
在 Piekniewski 看來,這些發展困境都表明著 AI 發展的寒冬即將來臨,就像股市崩盤一樣,雖然不太可能準確說出發生的時間點,但你從某些明顯的跡象中,幾乎可以肯定它將會在某個時刻出現,然而因為外界的呼聲太過強烈,以至於人們很容易就忽視掉這些徵兆。
可想而知,一些研究人員應該會對「凜冬將至」的說法感到憤怒,但 Piekniewski 指出,過去已經有許多知名研究者都警告過,群眾對於 AI 關注的熱潮已有些過頭,就連 Geoffrey Hinton 也曾在受訪時承認,反向傳播法(back-propagation)似乎已走入死胡同,相關研究可能得從頭開始展開。
然而,由於 AI 炒作的風聲實在過於強大,以至於這位對神經網路有著巨大貢獻、經常被外界稱作深度學習之父者的聲音並沒有太多人真的聽見。
「究竟冬天會有多『嚴寒』?我不知道。接下來會發生什麼?我不知道。但是我相當確定凜冬即將來臨,或許事情只會比我預想的更早發生。」
轉貼自: 科技新報Technew
留下你的回應
以訪客張貼回應