Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_308e2df3f4232ad08e1c5ca6c7314ec4, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
人工智能有個嚴重問題:它說不清自己為啥這麼牛 | 溫哥華教育中心
   

人工智能有個嚴重問題:它說不清自己為啥這麼牛

  例如,壹套用於尋找恐怖分子郵件的系統,可能會在訓練和決策過程中使用數以百萬的樣本信息。但利用華盛頓團隊的方法,便可突出顯示在信息中找到的特定關鍵詞。古斯特林的團隊也針對圖形識別系統設計了壹些方法,通過標注圖片上最重要的部分來暗示它們的判斷邏輯。


  保持謹慎

  但這類模式的缺點在於,系統提供的解釋往往過於簡單,因此可能缺失壹些關鍵信息。

  “我們尚未真正實現目標,那就是讓人工智能與我們對話,向我們解釋。”古斯特林說,“我們距離真正能夠解讀的人工智能還有很長距離。”

  即便不是在癌症診斷或軍事演習這種重要活動中,這壹問題也會體現出來。如果想要普及人工智能技術,使之成為我們日常生活中的壹個有益組成部分,了解人工智能的工作邏輯就顯得尤其重要。蘋果Siri團隊負責人湯姆?克魯伯(Tom Cruber)表示,可解釋性是他的團隊嘗試讓Siri更聰明的過程中的關鍵考量因素。

  克魯伯不肯透露Siri未來的具體計劃,但可以想見的是,如果你收到了Siri推薦的餐館信息,你肯定希望知道背後的原因。

  蘋果人工智能研究總監、卡內基梅隆大學副教授魯斯蘭?薩拉庫特迪諾夫(Ruslan Salakhutdinov)認為,可解釋性是人類與人工智能關系發展的核心。“這能帶來信任。”他說。

  正如很多人類行為無法詳細解釋壹樣,人工智能可能也無法解釋它的壹切行為。“即使有人能夠針對自己的行為給你壹個合理的解釋,很可能也不夠全面,人工智能同樣如此。”克魯尼說,“這或許正是智能的天然屬性,只有壹部分可以用理性來解釋,有的只是本能或潛意識,根本無法解釋。”

  倘若如此,我們某些時候可能必須盲目相信人工智能的判斷,否則就只能拋棄它。類似地,具體的判斷也必須考慮社交智能。正如社會的基礎是壹套關於預期行為的合約,我們設計人工智能系統時,也需要尊重和適應社會規范。如果能夠創造機器人坦克和其他殺人機器,那就必須確保它們的決策過程符合我們的道德判斷。

  為了理解這些形而上的概念,我找到了塔夫斯大學的丹尼爾?丹尼特(Daniel Dennett),他是壹位著名的哲學家和認知科學家,專門研究意識和心靈。在他的新書《From Bacteria to Bach and Back》是壹本關於意識的廣博論述,其中有壹個章節認為智能的進化本身就是創造壹套連創造者也無法理解的系統。


  “問題在於,我們擁有哪些條件來聰明地做到這壹點----我們要求它們達到什麼標准?要求我們自己達到什麼標准?”他對我說。

  他還針對可解釋性的問題提出了警告。

  “我認為,如果我們希望使用並依靠這些東西,那就應該盡可能明確地知道它們給出答案的邏輯和原因。”他說。但由於可能並不存在完美的答案,所以對待人工智能的解釋時,應該像對待其他人類的解釋壹樣保持壹份謹慎----無論機器看起來有多麼聰明。

  “如果機器並不比我們更加擅長解釋自己的行為,那就別相信它。”

[物價飛漲的時候 這樣省錢購物很爽]
無評論不新聞,發表壹下您的意見吧
上壹頁1234下壹頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)



    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站