摘要:作為機器學習領域的泰斗級學者,加州大學伯克利分校教授
MichaelI.
Jordan(他的學生包括邢波、吳恩達等人)一直對於當前人工智能的發展持謹慎態度。 昨天,他發表的前瞻性文章再次引起了人們的熱議
作為機器學習領域的泰斗級學者,加州大學伯克利分校教授
Michael I.
Jordan(他的學生包括邢波、吳恩達等人)一直對於當前人工智能的發展持謹慎態度。 昨天,他發表的前瞻性文章再次引起了人們的熱議。 在文中,Jordan
指出了 AI 作為一門新興學科所面臨的挑戰,同時也呼籲人們要以務實的態度對待近期的技術發展。
人工智能(AI)是這個時代的「咒語」。 這個詞組被大量技術人員、學者、記者和風險投資家等掛在嘴邊。 和很多從技術領域、學界擴散到公眾認知的詞組一樣,對「人工智能」這一詞組的使用也伴隨著大量誤解。 但是這不是大眾不理解科學家的典型案例,因為科學家也和大眾一樣糊塗。 「我們的時代正在親歷堪比人類的矽谷智能的崛起,這太令人振奮了。」而正是這個觀點吸引我們,也讓我們害怕。 並且,不幸的是,它分散了我們的注意力。
每個人在談論現在這個時代時都會有不同的敘事方式。 想想這個故事,涉及人類、計算機、數據和生死攸關的決策,但是聚焦點不是矽谷智能神話。 我妻子
14 年前懷孕時,我們做了一次超聲波檢查。 房間裡有遺傳學家,她指著胚胎心臟周圍的白點,「它們是唐氏綜合徵的標誌,這個胎兒的風險現在上升到了
1/20。 」然後她告訴我們應該通過羊膜穿刺術檢查胚胎是否有唐氏綜合徵引起的基因變化。 但是羊膜穿刺術風險較大,手術過程中胚胎死亡的概率大約是
1/300。 作為一名統計學家,我決定找出這些數字的來源。 簡單來說,我發現十年前在英國有一次統計分析,這些白點(反映出鈣沉積)確實是唐氏綜合徵的標誌。 但是我還注意到我們測試時所使用的成像機器每平方英寸的像素比英國研究中使用機器多出數百個像素。 我告訴遺傳學家我認為這些白點有可能是「假正類」,也就是「白色噪聲」。 她說:「啊,這就解釋了為什麼幾年前唐氏綜合徵診斷率開始上升,我們從那時候開始使用新機器。」
我們沒有做羊膜穿刺術,幾個月後一個健康的女嬰降臨人世。 但是這個小插曲讓我感到困擾,尤其是粗略計算後我意識到同一天全世界有數千人得到了唐氏綜合徵的診斷結果,很多人可能做了羊膜穿刺術,一些胎兒可能因此死亡。 這樣的事每天都在發生,直到問題被修復。 關鍵是這個小插曲揭示的並不是我個人的醫療狀況,而是利用不同地方和時間的變量和結果作為度量標準的醫療系統在其他地方和時間實施統計分析,並應用其結果。 問題不只是數據分析,而是數據庫研究者稱作「provenance」(數據溯源)的東西,寬泛來講,即數據來源、從數據中得到了怎樣的推斷,以及這些推斷與現在的狀況有多大關聯 。 儘管訓練有素的人可以基於個案分析解決這些問題,但是關鍵在於設計全球範圍醫療系統的人能夠在沒有詳細人類洞察的前提下做到這些。
我同時也是一名計算機科學家,這件事讓我想到了在我的教育經歷中沒有構建此類全球範圍的推斷和決策系統所需要的原則——綜合計算機科學和統計學,以及人類實用。 我還想到此類原則的開發,不僅需要醫療領域的努力,還需要商業、運輸業和教育行業的共同努力,其重要性至少與構建具備打遊戲或具備運動技巧的酷炫
AI 系統持平。
不管我們近期是否能夠理解「智能」(intelligence),我們都面臨一個重要挑戰,即把計算機和人類結合起來,來提升人類生活質量。 儘管很多人認為這項挑戰與創造「人工智能」相比不值一提,但是從更平淡的角度來看(並不持有過分敬畏),這也是創建工程的新分支。 就像幾十年前的土木工程和化學工程一樣,這一新領域旨在控制幾個關鍵想法的力量,安全地為人類帶來新資源和新能力。 土木工程和化學工程基於物理和化學,而這一新的工程領域將基於上個世界賦予全新內容的理念,如「信息」、「算法」、「數據」、「不確定性」(uncertainty)、 「計算」、「推斷」以及「優化」。 此外,由於這一新領域的主要關注點在於數據來源和人類,因此其發展需要來自社會學和人類學的觀點。
儘管其構造塊已經開始出現,但將這些構造塊組合起來的原則尚未出現,因此這些構造塊現在只是臨時堆砌在一起。
因此,就像在土木工程出現以前人類就可以建造房屋和橋樑一樣,現在人類也在努力構建涉及機器、人類和環境的社會範圍推斷和決策系統。 就像早期的建築和橋樑有時會以無法預料的方式倒下,並且造成悲慘的結果,我們的一些早期社會範圍推斷和決策系統也已經出現嚴重的概念缺陷。
不幸的是,我們很難預測下一個出現的嚴重缺陷是什麼。 我們所丟失的是一個具備分析和設計原則的工程領域。
目前大眾在提到這些問題時過分使用「AI」作為智力標配,這使得理性談論人工智能技術的範圍和結果變得困難。 讓我們更仔細地考慮「AI」過去、最近和歷史上指什麼。
今天大部分被稱為「AI」的事物(尤其是在公共空間中)在過去幾十年叫做「機器學習」(ML)。 ML
是結合統計學、計算機科學和其他學習的知識,設計能夠處理數據、進行預測和幫助決策的算法的算法領域。 從對現實世界的影響來看,機器學習是真材實料,而不只是最近。 確實,1990s,我們可以清楚地看到機器學習會發展成為具備大量的產業關聯性,在世紀轉換之際,具備前瞻性的公司(如亞馬遜)已經在業務中使用機器學習,解決詐騙檢測和物流 鏈預測中重要的後端問題,構建創新性的消費者服務,如推薦系統。 之後二十年隨著數據集和計算資源的快速發展,很明顯機器學習將很快掌控亞馬遜,本質上是所有公司,決策與大數據聯繫緊密。 新業務模型將出現。 「數據科學」開始用於指代這種現象,這反映出機器學習算法專家需要與數據庫和分佈式系統專家合作來構建可擴展、魯棒性機器學習系統,同時也反映出這些系統的更大 社會和環境影響範圍。
過去幾年,這些觀點和技術趨勢被重新命名為「AI」。 這值得審慎思考。
從歷史角度來看,「AI」一詞出現在
1950s 末,是對軟硬件中具備人類智能水平實體的輕率稱呼。 我們將使用「human-imitative
AI」來指代它,強調人工製作的智能實體應該看起來是在模仿人類,不是在物理層面,也是在心理層面。 這主要是在學術界。 而相關的學術領域,如運籌學、統計學、模式識別、信息論和控制論已經存在,並經常受啟發於人類智能)和動物智能),我們可以認為這些領域聚焦於「低水平」的信號和 決策。 比如,小松鼠感知森林的三維結構並在樹枝間跳躍的能力給這些領域帶來啟發。 這些現在被稱為「AI」的發展主要出現在與低水平模式識別和運動控制相關的工程領域,和尋找數據中的模式、進行理性預測、驗證假設和決策的統計學領域。
1980s David Rumelhart 重新發現的「反向傳播」算法現在被視為所謂的「AI 革命」核心,而它首次出現在 1950s 和 1960s 的控制論領域。 其早期應用之一就是優化阿波羅飛船登月任務的推力。
雖然
20 世紀 60 年代出現了很大的研究進展,但可以認為這些成果都不是來自 human-imitative AI
的路線。 更準確地說,正如在阿波羅飛船的案例中,這些思想通常隱藏在幕後,而研究者都聚焦於特定的工程挑戰上。 雖然這對於公眾來說不可見,但在文檔檢索、文本分類、欺詐檢測、推薦系統、個性化搜索、社交網絡分析、規劃、診斷學和
A/B 測試等領域的研究和系統構建取得了主要的成就,這些正是谷歌、Netflix、Facebook 和亞馬遜的優勢領域。
人們可能會簡單地把這些領域歸類為「AI」,而事實確實如此。 這樣的標籤可能使優化學或統計學研究者感到驚訝,他們一覺醒來突然就變成了「AI」研究者。 但除此之外,更重要的問題是,對這個含混不清的術語的運用妨礙了對當前智能化和商業化問題的清晰理解。
過去的二十年,AI
領域在業界和學界取得了很大成就,作為對 human-imitative AI
的補充,它們通常被稱為「智能增強」(IA)。 這裡計算力和數據被用於創造增強人類智能和創造力的服務。 搜索引擎可以看成是 IA
的一個例子(它增強了人類的記憶和現實知識),自然語言翻譯也是(它增強了人類的交流能力)。 基於計算的聲音、圖像生成可作為藝術家的調色板和創造力增強器。 雖然這類服務可以很自然地涉及高級推理和思考,但目前並沒有。 它們大部分情況下執行多種字符串匹配和數值運算,以捕捉人類可利用的模式。
希望讀者可以容忍這個縮略詞的怪異性,我們來討論對「智能基礎建設」(II,Intelligent
Infrastructure)這個學科的構想,其中計算網絡、數據和物理實體的出現使得人類環境更加有支持性、更有趣和安全。 這種基礎建設正在諸如運輸、醫藥、貿易和金融等領域出現,給個人和社會帶來了深刻的影響。 這些現像有時候會引發對「物聯網」的討論,但這通常僅聚焦於讓「事物」接入互聯網,而不是面對更加廣泛的挑戰,即讓這些「事物」分析數據流來發現關於世界 的事實,並在更高的抽象級別上和人類以及其它「事物」交互。
例如,回到我的個人經歷,我們可能想像過居住在這樣一個「社會範圍醫療系統」,設置醫生和人類體內外設備之間的數據流、數據分析流,從而幫助人類智能製定診斷決策、提供 醫療服務。 該系統可以整合人體細胞、DNA、血液檢查、換獎、人口遺傳學,以及藥物和治療的廣泛科學文獻的信息。 它不只關注單個病人和醫生,還關注所有人之間的關係,就像當前的醫療測試允許在一組人(或動物)身上進行實驗,然後用於其他人的醫療上。 這可以幫助維護關聯性、數據溯源和可靠性,方式和當前銀行系統聚焦於金融、支付領域的此類挑戰一樣。 儘管我們可以預見到此類系統會出現很多問題,包括隱私問題、責任問題、安全問題等,但這些問題應該被視為挑戰,而不是阻礙。
我們現在遇到了一個關鍵問題:我們正在研究的、經典的
human-imitative AI 是否是應對這些挑戰的唯一最佳方法? 事實上,近期的機器學習成功案例確實是 human-imitative
AI
的成功,如計算機視覺、語音識別、遊戲人工智能和機器人等。 或許我們應該等待這些領域的進一步發展再做定論。 這裡有兩點需要說明,儘管人們無法通過閱讀新聞得知,但
human-imitative AI 的成功事實上是有局限性的——我們距離實現 human-imitative AI
的願望還很遙遠。 不幸的是,在 human-imitative AI
發展中技術帶來的興奮(和恐懼)導致了行業的過度繁榮和媒體的追捧,這在其他工程領域是從未見到的。
其次,更重要的是,這些領域的成功既不足以解決重要的
IA 和 II
問題,也不是必需的。 在充分性方面,有自動駕駛汽車。 為實現這樣的技術,我們需要解決一系列工程問題,而這些問題可能與人力資源(或人力資源缺乏)關係不大。 未來的整個交通系統(一個
II
系統)可能會更像目前的空中交通管制系統,而不是目前數據收集階段遇到的鬆散耦合的、前向的、包含缺乏注意力的人類駕駛員的系統。 它將比當前的空中管制系統複雜得多,特別是在使用大量數據和自適應統計建模來進行精細決策時。 在這種情況下,上述這些挑戰才需要被擺在首位,而專注於模擬人類的人工智能可能會讓我們分心。
至於必要性的論點,有時我們認為
human-imitative AI 包含了 IA 和 II,因為 human-imitative AI 系統不僅能夠解決經典的 AI
問題(如圖靈測試),同時也是解決 IA 和 II
問題最有可能的方式。 這種論點並無歷史先驗。 設想一下:人造木匠和泥瓦匠會發展出土木工程嗎? 研究化學工程是否需要創造一個人造化學家? 還有更具挑戰性的:如果問我們的目標是建立一個化學工廠,我們是否需要先創造一個人造化學家,然後讓它研究出如何建造一座化學工廠?
一個相關的論點是:人類智能是我們所知的唯一一種智能,我們應該把它作為第一步來模仿它。 但人類其實並不擅長某些推理——我們有失誤、偏見和局限。 而且關鍵的是,我們並沒有演化出現代
II 系統必鬚麵對的處理大規模決策的能力,也無法處理 II 語境中的那些不確定性。 人們可能會爭辯 AI
系統可以突破人類智能的限制,同時「糾正」其缺點,也可以擴展到任意更大的問題上。 但這種思考現在還屬於科幻小說的範疇——這種推測性的論點雖然在文學創作中很吸引人,但它不應成為我們在面臨開始出現的重要
IA 和 II 問題時所參考的主要策略。 我們需要根據自己的優勢來解決 IA 和 II 問題,而不是僅僅將其當做是
human-imitative AI 方法的必然結果。
不難指出 II 系統中的算法和基礎建設上的挑戰並不是
human-imitative AI 研究的中心主題。 II
系統需要管理快速變化和全局不連貫的分佈式知識庫的能力。 這樣的系統必須能夠應對雲端交互以執行及時、分佈式的決策,並且它們必須應對長尾效應(即大多數數據掌握在少數人手中)。 他們必須解決跨越管理和競爭邊界的共享數據的困難。 最後並且特別重要的是,II
系統必須將經濟學思想例如激勵和價格等引入統計和計算基礎建設,從而讓人類互相連接並為好的事物賦值。 這樣系統 II
不僅僅是提供一項服務,而是在創造市場,其中數據分析將生產者和消費者連接起來。 並且這必須在演化中的社會的、道德的、合法的規範的環境下實現。
當然,經典的
human-imitative AI
問題仍然是很有趣的。 然而,當前的通過蒐集數據、部署「深度學習」基礎建設和展示可以模仿狹隘定義的人類技能的系統來做 AI
研究(很少關註解釋性理論的探索),傾向於從經典的 AI
問題中轉移注意力。 這些問題包括將意義和推理過程引入系統中以執行自然語言處理的需要,推理和表徵因果性的需要,開發計算可追踪的不確定性表徵的需要,以及開發規劃和追趕長期目標的系統的需要 。 這些是
human-imitative AI 的經典目標,但在當前的「AI 革命」的喧鬧聲中,人們很容易忘記這些問題尚未被解決。
IA 也仍將停留在很基礎的層面,因為對於可見的將來,計算機將無法匹配人類的能力來抽像地對現實世界場景進行推理。 我們將需要人類和機器的計劃周密的交互來解決最迫切的問題。 並且我們將需要計算機來觸發人類新級別的創造力,而不是取代人類的創造力(無論它是什麼含義)。
「AI」這個詞正是由
John McCarthy(曾任達特茅斯大學教授,之後在 MIT 工作),這很明顯是為了和 Noebert Wiener
的嶄露頭角的研究議程區分開來(MIT 教授,比前者更早)。 Wiener
曾經用「控制論」來劃分他的智能係統範疇,該範疇更相關於運籌論、統計學、模式識別、信息論和控制論。 另一方面,McCarthy
則強調了對邏輯學的應用。 有趣的反轉是,Wiener 智能研究議程成為了當今 AI 研究的主導,並運用著 McCarthy
的術語(這一事態是毫無疑問的,然而僅僅是暫時的;相比其他領域,AI 的主流搖擺得更快)。
但我們需要超越 McCarthy 和 Wiener 的特定歷史視角。
我們需要意識到當前的 AI 的公共話題(聚焦於業界和學界的狹隘子領域)有一個風險,即對 AI、IA 和 II 系統的完整圖景呈現的挑戰和機會的盲視。
這個圖景更少地和科幻小說幻想或超人機器的噩夢的實現相關,隨著技術在人類日常生活中的影響越來越大,而更多地和人類理解和重塑技術的需求相關。 此外,在這個理解和重塑的過程中,我們需要對各個層面進行討論,而不僅僅局限在技術協調層面。 只狹隘地局限於
human-imitative AI 也會阻止其他廣泛觀點的傳播。
雖然產業界將繼續驅動許多研發,學術界仍舊扮演著重要角色。 不只是提供最具創新性的技術觀點,學術界也會把計算與統計學科的研究人員與其他學科的研究者結合在一起,特別是社會科學、認知科學與人文學科的。 這些學科的貢獻與觀點也是非常急需的,
另一方面,雖然人文和科學是我們前進的關鍵,但我們也不應假裝我們所談論的是規模和範圍空前的工程努力以外的事——社會的目標是構建新的人工製品。 這些人工製品應該遵從要求被製作出來。 我們並不希望構建的系統是能夠治癒疾病、提供新的交通方式和商業機會,最後卻發現它們實際上並不實用——這樣的錯誤會使人們的幸福和生存受到影響。 在這一方面,正如我所強調的一樣,數據聚焦和以學習為重點的領域尚未催生出一個新的工程學科。 雖然這些領域令人興奮,但它們還不能被視為構成工程學科。
而且,我們必須接受這樣的事實:我們所目睹的是一個新的工程學分支的創立。 術語「工程」通常被認為是一個狹義的概念——不僅僅是在學術上——它帶有著冷酷無情的機械化聯想,還有著失去人類控制的消極內涵,但一個新的工程學科也可以是我們 想要的。
在如今這個時代,我們終於有機會設想一個歷史上從未出現的新鮮事物——一個以人為中心的工程學科。
我拒絕為這個新興的學科命名,但如果「AI」這個單詞首字母組成的略詞仍被用作未來這一方向的識別術語,我們就必須認真思考它所帶來的嚴重限制了。 我們需要擴大思考範圍,減少炒作,並真正認識到未來的嚴峻挑戰。
版權聲明
本文僅代表作者觀點,不代表百度立場。
本文係作者授權百度百家發表,未經許可,不得轉載。