人工智能有個嚴重問題:它說不清自己為啥這麼牛
現在出現了壹些具有獨創性的策略,試圖捕捉並詳細解釋這類系統中發生了哪些事情。2015年,谷歌研究人員修改了壹套深度學習圖形識別算法,使之不再識別照片中的物體,而是生成或修改這樣的物體。通過反向運行這種算法,便可了解算法在識別鳥或建築時使用了哪些特征。
這個名為Deep Dream的項目生成的圖片,呈現出動物從雲朵和植物中浮現的奇異效果,還有寶塔從森林或山脈中盛開的幻覺效果。這些圖片證明深度學習並非完全不可理解,同時也表明這些算法把注意力集中在熟悉的視覺特征上,包括鳥嘴和羽毛。不過,這些圖片也透露出深度學習與人類知覺的差異,正因如此,人工智能往往可以利用那些被我們忽略的信息。
谷歌研究人員指出,當算法生成啞鈴的圖像時,還生成了壹個抓著啞鈴的人類胳膊。這表明機器已經認定,胳膊也是啞鈴的壹部分。
進壹步的發展是因為借鑒了來自神經科學和認知科學領域的想法。懷俄明大學助理教授傑夫?克魯尼(Jeff Clune)已經部署了相當於人工智能的光幻覺來測試深度神經網絡。2015年,克魯尼的團隊展示了如何利用某些圖片欺騙神經網絡,使之得出錯誤的結論,原因在於這些圖片利用了系統所尋找的底層模式。
作為克魯尼的合作者,詹森?尤辛斯基(Jason Yosinski)也開發了壹個像插入大腦的探針壹樣的工具。他的工具瞄准了神經網絡中的任意壹個神經元,然後尋找對其激活程度最高的圖片。結果出現了壹些抽象的圖片(就像印象派畫家繪制的火烈鳥或校車),凸顯出及其感知能力的神秘特性。
事關重大
但我們需要的不只是壹窺人工智能的思維方式,而且這個問題並不容易解決。深度神經網絡中的運算之間的相互影響才是高層次模式識別和復雜決策過程的核心,但這些運算是壹片由數學函數和變量構成的沼澤。
“如果你有壹個很小的神經網絡,或許可以理解它。”加考拉說,“可壹旦規模巨大,每壹層都有數千個單元,或者總共擁有數百個層次,那就完全無法理解。”
加考拉辦公室隔壁是雷吉納?巴茲雷(Regina Barzilay),這位麻省理工學院的教授致力於把機器學習應用於醫療領域。幾年前,當時43歲的她被診斷出乳腺癌。診斷本身令人震驚,但更令巴茲雷失望的是,沒有人使用尖端的統計學和機器學習技術為腫瘤學研究提供幫助,或者引導病人的治療。
她還表示,人工智能擁有很大的潛力改革醫療行業,但她也意識到,這項技術的潛力不僅局限於病例。她還希望使用更多尚未充分利用的數據,包括影響數據、病理學數據以及各種各樣的信息。
在去年結束了癌症治療後,巴茲雷和她的學生開始與麻省綜合醫院的醫生合作開發壹套系統,可以通過挖掘病理學報告來尋找那些具備研究人員感興趣的臨床表現的病人。然而,巴茲雷發現,系統需要解釋自己背後的邏輯。所以,她與加考拉和壹個學生增加了壹個步驟:這套系統會把它認為代表某種模式的文本片段提取出來,並加以強調。
巴茲雷和她的學生還開發了壹套能夠通過乳房X光片找到早期乳腺癌跡象的深度學習算法,他們希望讓這套系統具備壹定的解釋能力。“的確需要讓機器和人類展開協作。”巴茲雷說。
美國軍方也投資數拾億美元,希望使用機器學習來控制汽車和飛機、識別目標、過濾海量情報數據。這壹領域甚至比醫療行業更期待透明的算法,所以國防部將可解釋性視作壹大關鍵障礙。
美國國防部高等研究項目署(DARPA)的項目經理大衛?岡寧(David Gunning)負責壹個名為可解釋人工智能(Explainable Artificial Intelligence)的計劃。作為該部門的壹位銀發老兵,他之前在DARPA負責的項目最終促成了Siri的誕生。岡寧透露,自動化已經滲透到無數的軍事領域。情報分析師正在測試機器算法,希望通過大量的監控數據判斷各種模式。
很多無人駕駛汽車和飛機也在開發和測試過程中。但士兵可能不會喜歡這種無法解釋自己行為的機器坦克,而分析師在按照這些沒有明確邏輯的信息采取行動的時候,也可能有所遲疑。“從這些機器學習天生就容易發出錯誤警報,所以情報分析師需要額外的幫助來明白系統為何會給出某條建議。”岡寧說。
今年3月,DARPA從學術和工業界選擇了13個資助項目,納入了岡寧的這個計劃。其中壹些項目會以華盛頓大學教授卡洛斯?古斯特林(Carlos Guestrin)的成果作為基礎。他和他的同事開發了壹種方法,可以讓機器學習系統闡述其輸出結果的基本原理。也就是說,借助這種方法,電腦會從數據集中自動找到壹些樣本,然後給出簡短的解釋。
[加西網正招聘多名全職sales 待遇優]
好新聞沒人評論怎麼行,我來說幾句
這個名為Deep Dream的項目生成的圖片,呈現出動物從雲朵和植物中浮現的奇異效果,還有寶塔從森林或山脈中盛開的幻覺效果。這些圖片證明深度學習並非完全不可理解,同時也表明這些算法把注意力集中在熟悉的視覺特征上,包括鳥嘴和羽毛。不過,這些圖片也透露出深度學習與人類知覺的差異,正因如此,人工智能往往可以利用那些被我們忽略的信息。
谷歌研究人員指出,當算法生成啞鈴的圖像時,還生成了壹個抓著啞鈴的人類胳膊。這表明機器已經認定,胳膊也是啞鈴的壹部分。
進壹步的發展是因為借鑒了來自神經科學和認知科學領域的想法。懷俄明大學助理教授傑夫?克魯尼(Jeff Clune)已經部署了相當於人工智能的光幻覺來測試深度神經網絡。2015年,克魯尼的團隊展示了如何利用某些圖片欺騙神經網絡,使之得出錯誤的結論,原因在於這些圖片利用了系統所尋找的底層模式。
作為克魯尼的合作者,詹森?尤辛斯基(Jason Yosinski)也開發了壹個像插入大腦的探針壹樣的工具。他的工具瞄准了神經網絡中的任意壹個神經元,然後尋找對其激活程度最高的圖片。結果出現了壹些抽象的圖片(就像印象派畫家繪制的火烈鳥或校車),凸顯出及其感知能力的神秘特性。
事關重大
但我們需要的不只是壹窺人工智能的思維方式,而且這個問題並不容易解決。深度神經網絡中的運算之間的相互影響才是高層次模式識別和復雜決策過程的核心,但這些運算是壹片由數學函數和變量構成的沼澤。
“如果你有壹個很小的神經網絡,或許可以理解它。”加考拉說,“可壹旦規模巨大,每壹層都有數千個單元,或者總共擁有數百個層次,那就完全無法理解。”
加考拉辦公室隔壁是雷吉納?巴茲雷(Regina Barzilay),這位麻省理工學院的教授致力於把機器學習應用於醫療領域。幾年前,當時43歲的她被診斷出乳腺癌。診斷本身令人震驚,但更令巴茲雷失望的是,沒有人使用尖端的統計學和機器學習技術為腫瘤學研究提供幫助,或者引導病人的治療。
她還表示,人工智能擁有很大的潛力改革醫療行業,但她也意識到,這項技術的潛力不僅局限於病例。她還希望使用更多尚未充分利用的數據,包括影響數據、病理學數據以及各種各樣的信息。
在去年結束了癌症治療後,巴茲雷和她的學生開始與麻省綜合醫院的醫生合作開發壹套系統,可以通過挖掘病理學報告來尋找那些具備研究人員感興趣的臨床表現的病人。然而,巴茲雷發現,系統需要解釋自己背後的邏輯。所以,她與加考拉和壹個學生增加了壹個步驟:這套系統會把它認為代表某種模式的文本片段提取出來,並加以強調。
巴茲雷和她的學生還開發了壹套能夠通過乳房X光片找到早期乳腺癌跡象的深度學習算法,他們希望讓這套系統具備壹定的解釋能力。“的確需要讓機器和人類展開協作。”巴茲雷說。
美國軍方也投資數拾億美元,希望使用機器學習來控制汽車和飛機、識別目標、過濾海量情報數據。這壹領域甚至比醫療行業更期待透明的算法,所以國防部將可解釋性視作壹大關鍵障礙。
美國國防部高等研究項目署(DARPA)的項目經理大衛?岡寧(David Gunning)負責壹個名為可解釋人工智能(Explainable Artificial Intelligence)的計劃。作為該部門的壹位銀發老兵,他之前在DARPA負責的項目最終促成了Siri的誕生。岡寧透露,自動化已經滲透到無數的軍事領域。情報分析師正在測試機器算法,希望通過大量的監控數據判斷各種模式。
很多無人駕駛汽車和飛機也在開發和測試過程中。但士兵可能不會喜歡這種無法解釋自己行為的機器坦克,而分析師在按照這些沒有明確邏輯的信息采取行動的時候,也可能有所遲疑。“從這些機器學習天生就容易發出錯誤警報,所以情報分析師需要額外的幫助來明白系統為何會給出某條建議。”岡寧說。
今年3月,DARPA從學術和工業界選擇了13個資助項目,納入了岡寧的這個計劃。其中壹些項目會以華盛頓大學教授卡洛斯?古斯特林(Carlos Guestrin)的成果作為基礎。他和他的同事開發了壹種方法,可以讓機器學習系統闡述其輸出結果的基本原理。也就是說,借助這種方法,電腦會從數據集中自動找到壹些樣本,然後給出簡短的解釋。
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: | 在此頁閱讀全文 |
推薦:
人工智能有個嚴重問題:它說不清自己為啥這麼牛