人工智能有个严重问题:它说不清自己为啥这么牛
例如,一套用于寻找恐怖分子邮件的系统,可能会在训练和决策过程中使用数以百万的样本信息。但利用华盛顿团队的方法,便可突出显示在信息中找到的特定关键词。古斯特林的团队也针对图形识别系统设计了一些方法,通过标注图片上最重要的部分来暗示它们的判断逻辑。
保持谨慎
但这类模式的缺点在于,系统提供的解释往往过于简单,因此可能缺失一些关键信息。
“我们尚未真正实现目标,那就是让人工智能与我们对话,向我们解释。”古斯特林说,“我们距离真正能够解读的人工智能还有很长距离。”
即便不是在癌症诊断或军事演习这种重要活动中,这一问题也会体现出来。如果想要普及人工智能技术,使之成为我们日常生活中的一个有益组成部分,了解人工智能的工作逻辑就显得尤其重要。苹果Siri团队负责人汤姆?克鲁伯(Tom Cruber)表示,可解释性是他的团队尝试让Siri更聪明的过程中的关键考量因素。
克鲁伯不肯透露Siri未来的具体计划,但可以想见的是,如果你收到了Siri推荐的餐馆信息,你肯定希望知道背后的原因。
苹果人工智能研究总监、卡内基梅隆大学副教授鲁斯兰?萨拉库特迪诺夫(Ruslan Salakhutdinov)认为,可解释性是人类与人工智能关系发展的核心。“这能带来信任。”他说。
正如很多人类行为无法详细解释一样,人工智能可能也无法解释它的一切行为。“即使有人能够针对自己的行为给你一个合理的解释,很可能也不够全面,人工智能同样如此。”克鲁尼说,“这或许正是智能的天然属性,只有一部分可以用理性来解释,有的只是本能或潜意识,根本无法解释。”
倘若如此,我们某些时候可能必须盲目相信人工智能的判断,否则就只能抛弃它。类似地,具体的判断也必须考虑社交智能。正如社会的基础是一套关于预期行为的合约,我们设计人工智能系统时,也需要尊重和适应社会规范。如果能够创造机器人坦克和其他杀人机器,那就必须确保它们的决策过程符合我们的道德判断。
为了理解这些形而上的概念,我找到了塔夫斯大学的丹尼尔?丹尼特(Daniel Dennett),他是一位着名的哲学家和认知科学家,专门研究意识和心灵。在他的新书《From Bacteria to Bach and Back》是一本关于意识的广博论述,其中有一个章节认为智能的进化本身就是创造一套连创造者也无法理解的系统。
“问题在于,我们拥有哪些条件来聪明地做到这一点----我们要求它们达到什么标准?要求我们自己达到什么标准?”他对我说。
他还针对可解释性的问题提出了警告。
“我认为,如果我们希望使用并依靠这些东西,那就应该尽可能明确地知道它们给出答案的逻辑和原因。”他说。但由于可能并不存在完美的答案,所以对待人工智能的解释时,应该像对待其他人类的解释一样保持一份谨慎----无论机器看起来有多么聪明。
“如果机器并不比我们更加擅长解释自己的行为,那就别相信它。”
[物价飞涨的时候 这样省钱购物很爽]
好新闻没人评论怎么行,我来说几句
保持谨慎
但这类模式的缺点在于,系统提供的解释往往过于简单,因此可能缺失一些关键信息。
“我们尚未真正实现目标,那就是让人工智能与我们对话,向我们解释。”古斯特林说,“我们距离真正能够解读的人工智能还有很长距离。”
即便不是在癌症诊断或军事演习这种重要活动中,这一问题也会体现出来。如果想要普及人工智能技术,使之成为我们日常生活中的一个有益组成部分,了解人工智能的工作逻辑就显得尤其重要。苹果Siri团队负责人汤姆?克鲁伯(Tom Cruber)表示,可解释性是他的团队尝试让Siri更聪明的过程中的关键考量因素。
克鲁伯不肯透露Siri未来的具体计划,但可以想见的是,如果你收到了Siri推荐的餐馆信息,你肯定希望知道背后的原因。
苹果人工智能研究总监、卡内基梅隆大学副教授鲁斯兰?萨拉库特迪诺夫(Ruslan Salakhutdinov)认为,可解释性是人类与人工智能关系发展的核心。“这能带来信任。”他说。
正如很多人类行为无法详细解释一样,人工智能可能也无法解释它的一切行为。“即使有人能够针对自己的行为给你一个合理的解释,很可能也不够全面,人工智能同样如此。”克鲁尼说,“这或许正是智能的天然属性,只有一部分可以用理性来解释,有的只是本能或潜意识,根本无法解释。”
倘若如此,我们某些时候可能必须盲目相信人工智能的判断,否则就只能抛弃它。类似地,具体的判断也必须考虑社交智能。正如社会的基础是一套关于预期行为的合约,我们设计人工智能系统时,也需要尊重和适应社会规范。如果能够创造机器人坦克和其他杀人机器,那就必须确保它们的决策过程符合我们的道德判断。
为了理解这些形而上的概念,我找到了塔夫斯大学的丹尼尔?丹尼特(Daniel Dennett),他是一位着名的哲学家和认知科学家,专门研究意识和心灵。在他的新书《From Bacteria to Bach and Back》是一本关于意识的广博论述,其中有一个章节认为智能的进化本身就是创造一套连创造者也无法理解的系统。
“问题在于,我们拥有哪些条件来聪明地做到这一点----我们要求它们达到什么标准?要求我们自己达到什么标准?”他对我说。
他还针对可解释性的问题提出了警告。
“我认为,如果我们希望使用并依靠这些东西,那就应该尽可能明确地知道它们给出答案的逻辑和原因。”他说。但由于可能并不存在完美的答案,所以对待人工智能的解释时,应该像对待其他人类的解释一样保持一份谨慎----无论机器看起来有多么聪明。
“如果机器并不比我们更加擅长解释自己的行为,那就别相信它。”
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
推荐:
人工智能有个严重问题:它说不清自己为啥这么牛