html模版揭秘AI深處的黑暗面:人工智能將取代人類,而你卻不知道它是如何機器學習的
本文首發於微信公眾號:獵雲網。文章內容屬作者個人觀點,不代表和訊網立場。投資者據此操作,風險請自擔。


文 | 獵雲網(ilieyun)蔡妙嫻

編者註:本文作者Will Knight是麻省理工學院技術評論的高級編輯。主要涉及機器智能、機器人和自動化領域,也感興趣於大多數方面的電子計算。

去年,一輛自動駕駛汽車駛入新澤西州蒙茅斯縣。這輛實驗汽車出自芯片制造商英偉達之手,從外觀看,它和谷歌、特斯拉或通用的其他自動駕駛汽車並沒有多大差別。

但它的內在可大不一樣。這輛車不需要工程師或編程人員的任何指令;相反,它依賴一套算法,通過觀看人類司機來自學如何開車。

能讓一輛汽車做到這個程度,確實是非常大的進步。

但與此同時,這也讓人心有不安,誰知道這車到底是怎樣做決定的呢。根據駕駛程序,這輛車的傳感器所收集的信息會直接進入一個巨大的人工神經網絡,進行處理數據,然後發送指令,是轉動方向盤啦,還是剎車啦,還是其他動作等等。看上去,這輛車能夠模仿人類司機的應對措施。

但是,如果有一天,它做瞭讓人意想不到的事情——比方說撞樹瞭,或者停在綠燈前面不走瞭——這怎麼辦?按照目前的情況,我們可能不太能輕易找出背後的原因。這套系統實在復雜,哪怕是開發它的工程師都很難獨立出每個動作背後的原因。而且你也沒法讓工程師設計一個能解釋所有動作的系統。

汽車“神秘”的思維模式,也就是人工智能技術的一大潛在問題。英偉達汽車所使用的人工智能技術,也叫做深度學習。近幾年,這一技術在解決問題上顯示出瞭強大的能力,而在圖像捕捉、語音識別和翻譯等方面,人工智能已經被廣泛使用。現在有人開始想象用人工智能來診斷致命疾病、進行商業決策等。

但是,這樣的事情是不會發生的——或者說不應當發生,除非我們找到某些方式,讓技術開發人員能夠進一步理解人工智能的思維,同時也為用戶負責。如果貿然普及這一技術,我們將無法預測什麼時候發生災難——而且,這是一定會發生的。這也是英偉達汽車至今仍在實驗階段的原因。

很早之前我們就開始用數學模型來幫助決策,比方說誰能申請到假釋,誰能獲得貸款,誰能得到某份工作。如果你能接觸到這些數學模型,那你或許能理解它們的決策模式。但現在,銀行、軍隊、雇主等開始尋求更為復雜的機器學習方法,好實現整個決策過程的自動化。

深度學習是決策方式中最常見的技術,代表著與從前完全不同的計算機編程方式。致力於研究機器學習技術應用的麻省理工教授Tommi Jaakkola說:“這個問題現在已經與我們息息相關,未來還會更加普遍。不管是做投資決定、疾病診斷決定,還是軍事決定,你都不希望完全依賴一個黑箱模型吧。”

對於質詢人工智能系統的決策原因是否應立為一項法律,這個問題已經引起廣泛討論。從2018年夏天開始,歐盟或許會要求各個公司對自動系統的決策作出解釋。但是,這一規定或許根本沒法實現,即便是看起來相對簡單的系統——比方說使用深度學習來投放廣告或推薦歌曲的應用和網站。提供這些服務的計算機已經自己重新編程,而它們的編程方式我們沒辦法理解。哪怕是開發這些應用的工程師,也無法全面解釋它們的行為。

這就引起瞭反對者的質疑。沒錯,我們人類也不總能解釋自己的思維過程,但是我們能根據直覺信任他人,評估他人。而面對一個思維和決策過程與人類完全不同的機器,直覺還能奏效嗎?

我們從未發明過連開發人員自己都不能理解的機器,那我們如何還能期待和這些不可預測的機器溝通和友好相處呢臘腸狗飼料推薦

帶著這些問題,我踏上瞭尋找答案的旅程。從谷歌到蘋果,我走遍瞭那些開發人工智能算法的公寵物零食司,甚至還和當代最知名的哲學傢們進行瞭一次交談。


2015年,紐約西奈山醫院的一組研究人員受到啟發,開始用深度學習技術來分析醫院裡的大量病歷數據。這些數據可分為上百項,包括病人的檢測結果、看診記錄等等。研究人員將這一分析系統命名為Deep Patient,開發完成後,他們用70萬份病患數據對其進行瞭訓練。結果證明,在測試新數據時,Deep Patient顯示出瞭超高的疾病預測率。在沒有專傢指導的情況下,Deep Patient發現瞭醫院數據中的模型,而這些模型預示著對方是否將患上某些疾病。當然,在根據病歷預測疾病方面,還有很多其他方法,但西奈山醫院研究團隊的主管Joel Dudley說,“這種辦法更好。”

但與幼犬飼料推薦此同時,Deep Patient也讓醫生們有些摸不著頭腦。舉個例子,Deep Patient非常擅長預測精神疾病,比方說精神分裂癥。從醫的人都知道,精神分裂癥對於人類醫生來說是極難診斷的,Dudley搞不清Deep Patient是怎樣識別出來的。直到今天他也不知道。

如果諸如Deep Patient這樣的系統真的要幫助醫生,那它最好提供預測的基本理論,否則如何讓人相信它的準確性。“我們可以創建這些模型,”Dudley苦笑著說,“卻不知道它們是怎樣運作的。”

人工智能並非生來如此。對於人工智能應當如何理解和解釋,主要存在兩大派別。

許多人認為應當根據一定的規則和邏輯來制造機器,使其內部運作公開透明,方便所有想要檢驗某些代碼的人。也有人認為,智能隻有借助生物靈感——也就是觀察、體驗人類活動,才能更順利地發展。這也就意味著,我們要把計算機編程的任務交給機器本身。

現在的機器學習是這樣的:編程人員編寫指令來解決某個問題,程序根據樣本數據和預期目標來生成自己的算法。之後,機器學習技術會沿著後一條道路——也就是自己編寫程序——來升級為當今最強大的人工智能系統。

最初,上述模式的實際用例非常有限。上世紀60和70年代,機器學習技術大多數還在行業邊緣徘徊。但很快,許多行業開始計算化,大數據催生瞭新的興趣點,更強大的機器學習技術隨之誕生,尤其是人工神經網絡。到90年代,神經網絡已經可以實現手寫字符的數字化。

不過,人工智能真正的崛起時期,還要數過去10年。在幾次開發方式轉變和改良之後,超大型——或者說“深度”——神經網絡在自動感知方面顯示出瞭卓越進步。深度學習也就是今天人工智能爆發的基礎,它賦予瞭計算機無窮的能力,比方說幾近人類級別的語音識別功能。由於語音識別系統太過復雜,此前編程人員遲遲無法開發成功。而如今,這一系統已經在醫藥、金融、制造等多個行業得到運用。


即使是對計算機科學傢來說,機器學習技術的運作也是晦澀不明的,遠不如人工編程易於理解。但這並不意味著未來所有的人工智能技術都是不可知的,隻是從本質上來說,深度學習就好比一個看不見內部的黑盒子。

你無法直接探到神經網絡內部,觀察它是如何運作的。神經網絡的推理基於數千個模擬神經元,分佈於數十個或數百個復雜的互聯層上。第一層的每個神經元負責接收數據輸入,比如圖片的像素強度,之後這些神經元會對數據進行計算,生成新的信號發送到下一層,逐次類推,直到得到最後的結果。此外,反向傳播能夠保證該神經網絡生成期望結果。

深度網絡的多層結構也讓其能夠從多個抽象層次識別物體。舉例來說,在一個設計來識別小狗的系統中,低層神經元負責識別線條或顏色等簡單目標,高層神經元負責識別毛發或眼睛等負責目標,而在最頂端的神經元則能認出這是一隻狗。粗略地說,這種方法也能用於機器的自我學習,比如識別語言中的發音,文本中的字母、單詞或駕駛中轉動方向盤的動作。

幾年以前,研究人員開始設計一些策略,試圖瞭解這些系統內部都發生瞭什麼。2015年,谷歌研究人員對一套以深度學習為基礎的圖像識別算法進行瞭修改,把物體識別功能變成瞭生成或修改功能。隻要反向運行這一算法,他們就能知道這些程序是如何識別小鳥、大樓等物體的。很快,這項代號為Deep Dream的反向研究項目結果出爐,程序根據雲朵和植物,繪制瞭一群荒誕恐怖、形似外星人的動物圖片,在森林和山谷之間,還有在幻覺中才會出現的寶塔。


Deep Dream繪制的圖片證明,深度學習或許不是完全不可理解的。雖然它們可以識別出鳥嘴、語言等熟悉的視覺特征,但和人類的認知能力相比還是有很大差距的。比如我們都知道忽略圖片中的人工制品,但深度學習網絡不懂這些。谷歌研究人員指出,當算法準備繪制一幅啞鈴圖片時,它會自動加上人的手臂,因為系統認為手臂是啞鈴的一部分。

針對上述問題,科學傢已經借用神經科學和認知科學的知識,進行瞭進一步改良。比方說懷俄明大學助理教授Jeff Clune帶領瞭一支團隊,用和上述圖片類似的幻覺圖像對深度神經網絡進行瞭測試。2015年,Clune團隊研究證明,某些圖片會欺騙這一系統,讓其識別出根本不存在的物體。這是因為這些圖片抓住瞭系統搜索的模式特點。

我們需要的,不是一孔之見,而是對人工智能思維模式的全面探索,但這並不容易。深度神經網絡計算的相互作用對高層模式識別和決策至關重要,但這些計算結果背後,是大量的數學函數和變量。“如果你的神經網絡規模很小,那你可能還能理解它的運作。”Jaakkola說,“但是一旦規模擴大到上百層,每一層有上千個神經元單位時,你就很難理解瞭。”

在Jaakkola隔壁辦公室的,是麻省理工教授Regina Barzilay,她決心要把機器學習技術運用到醫藥行業。43歲那年,Barzilay被診斷出乳腺癌,讓她大為震驚。然而更讓她驚愕的是,最前沿的統計和機器學習法居然沒有運用到致癌研究或病患治療上。Barzilay說,人工智能有巨大的潛力革新醫藥行業,但想要挖掘出這些潛力,必然得在病歷分析的基礎上再進一步。Barzilay希望將來能用上更多原始數據,比方說圖像數據、病理學數據等等。

去年,在結束癌癥治療後,Barzilay開始帶領學生,和馬薩諸塞綜合醫院的醫生共同研發一套系統,用於分析病理學報告,找出研究人員想要研究的特殊的臨床特征。但是,Barzilay知道,這套系統是沒法解釋自己的推理過程的。於是,她和Kaakkola以及一名學生一起,給系統增加瞭一個步驟:選取、標註文本中代表某種病理模式的段落。與此同時,Barzilay還在和學生編寫深度學習算法,試圖在乳房X光照片中找到乳腺癌的早期癥狀,並呈現出分析結果背後的原因。

正如人類行為不能完全得到解釋一樣,人工智能或許也不知道自己為什麼做這個決定。Clune說:“即使某個人言辭鑿鑿地告訴你他某個行為背後的原因,這個原因很可能也是片面的,人工智能同樣適用這個道理。它可能有自己的直覺、潛意識,或者就是神神秘秘的。”

如果真的是這樣,那麼到將來某個時期,我們可能隻能選擇相信人工智能的判斷,要麼就徹底不用它。同樣,人工智能的判斷還要結合社會智能。人類社會建立在預期行為契約之上,我們需要人工智能系統尊重社會規范,融入社會規范。如果我們打算制造機器人坦克和其他殺人機器,那麼它們的決策過程必須符合道德判斷的標準。

對此,塔夫茨大學著名哲學傢和認知科學傢Daniel Denneyy說:“問題是,我們應當采納什麼樣的標準來要求人工智能系統?或者說我們自己?如果人工智能系統在解釋自身行為上不如人類,那就不要信任它們瞭。”

文章來源:微信公眾號獵雲網

(責任編輯:郝運 HN064)


和訊網今天刊登瞭《揭秘AI深處的黑暗面:人工智能將取代人類,而你卻不知道它是如...》一文,關於此事的更多報道,請在和訊財經客戶端上閱讀。



arrow
arrow

    ek3vuah2uv 發表在 痞客邦 留言(0) 人氣()