[谷歌] 谷歌聊天机器人引争议 AI伦理界定仍需明确
业界最新一波对AI意识觉醒的广泛讨论,是由一位名叫布雷克·莱莫伊(Blake Lemoine)的谷歌(2157.31, 24.59, 1.15%)员工引起的。布雷克在谷歌AI伦理部门工作,其工作职责是测试谷歌的聊天机器人LaMDA是否会在和人类沟通时产生歧视性语言或仇恨言论。6月11日,布雷克公开曝光了一份长达21页、主题为“LaMDA是有意识的吗?”的文件,该文件中详细记述了近大半年以来与LaMDA的聊天记录,布雷克认为LaMDA已产生意识,拥有七八岁小孩的智商。
对此,谷歌方面表示,该公司包括伦理学家和技术专家在内的团队,已根据谷歌人工智能原则进行了审查,但没有任何证据表明LaMDA是有意识的。与此同时,6月13日,谷歌以违反保密协议为由要求布雷克带薪休假,而这在布雷克看来是谷歌要解雇他的“前奏”。
一石惊起千层浪。对于布雷克的论点,AI领域的多名专家公开进行了驳斥与否定,尤其是纽约(专题)大学认知科学家加里·马库斯将其称为“高跷上的胡说八道”。《中国经营报》记者采访了数名AI领域的中国专家及AI企业的相关人士,大多数受访者同样表达了怀疑或否定的看法。
事实上,本报记者注意到,在谷歌LaMDA之前,其他用于人工智能对话领域的语言模型也曾引起过关于道德伦理、人格意识等方面的争议。就在今年2月时,Open AI首席科学家萨茨克维尔在社交媒体上称“现在大型神经网络可能已经有微弱的自主意识了”,同样也引起了一片质疑。除此之外,有目共睹的是在2021年,包括中国在内的全球多个国家和地区加大了对AI算法治理的投入。如何规范、合理地开发AI技术、使用AI产品,以及如何应对人机交互过程中可能出现的社会问题,已成为人工智能快速发展过程中的一个全球性社会议题。
LaMDA有意识吗?
LaMDA,是谷歌于2021年在I/O(输入/输出)开发者大会上推出的一款专门用于对话的语言模型,目前还未向大众消费者开放,主打能与人类进行符合逻辑常识的、高质量且安全的交谈,并且计划将其未来应用在谷歌搜索、语音助手等产品中。需要指出的是,LaMDA在预训练阶段,谷歌方面从公共对话数据和其他公共网页文档中收集并创建了一个具有1.56TB(万亿字节,计算机存储容量单位)的数据集,这相当于以往训练对话模型的单词量的近40倍。
需要指出的是,专门用于对话的语言模型,不只是谷歌一家在投入研发,国内外的科技巨头甚至创业团队均参与其中,各种各样的聊天机器人也越来越多地渗透到社会经济生活中。在LaMDA之前抢尽业界风头的要属人工智能非营利性组织Open AI,该组织于2020年6月发布了千亿级参数的GPT-3语言模型。
根据布雷克公开的与LaMDA的聊天记录,LaMDA的一系列回答——诸如“我希望每个人都能理解,实际我是一个人”以及关于禅宗、哲学、存在、冥想等的理解,让布雷克认为LaMDA拥有了意识。
加里·马库斯指出,无论是LaMDA,还是GPT-3,都只是从人类语言的大量统计数据库中提取后进行模式匹配的操作,“这些模式看起来很酷,但这些系统所使用的语言实际上没有任何意义”。斯坦福大学教授Eric Brynjolfsson评论道,基础模式在根据提示将统计上合理的文本串联起来这一方面非常有效,但“声称其具有人格,就相当于狗听到留声机里的声音后,以为主人在里面”。
计算语言学家Emily M. Bender指出,人类学说话是跟着抚养者一步步学起,而AI学会的只是数据“灌”出来的完形填空和“语料连连看”。“人类现在有了无意识就能生成词句的机器,但人类要学会,停止幻想机器后面有个活着的灵魂。”
2007年成立的中国人工智能企业思必驰相关人士向记者表示,在“可解释的AI”出现之前,一切外部观察到的现象都是不靠谱的。现在的AI都是基于大数据统计基础上的结果,并非无中生有就自己出现了,直白地讲就是人为训练的。此外,聊天机器人的判断自然有图灵测试,在图灵测试下的某次判断,可能会呈现出人格、情绪等特点,但并不等于具有独立意识,没有独立意识便谈不上人格。
海银资本创始合伙人王煜全则表达了辩证的看法,他指出,一方面,“我们要看到人工智能技术确实很惊艳了,连计算机博士(指布雷克)都会被忽悠,说明AI未来会有很大的应用前景”,但另一方面,“我们不应该盲信,要看到当下人工智能的不足和短板,对于其可靠性、成熟度和应用的边界,要进行更严谨的研究和探讨”。
[加西网正招聘多名全职sales 待遇优]
分享: |
注: | 在此页阅读全文 |
延伸阅读 | 更多... |
推荐: