[谷歌] 谷歌灵异算法事件,荒诞却又可悲!
谷歌人工智能大模型LaMDA引发的滔天舆论巨浪,已经完胜三年来苦心向大众普及大模型的 OpenAI 以及微软、Meta等科技巨头。
6月上旬,一个关于“LaMDA有了人类情绪与主观意识”的结论,被谷歌一名叫Blake Lemonie的算法工程师,以个人名义,用一份长达21页的对话报告投放在了Twitter上,引发了炸裂式影响。没有媒体会对开了智的算法无动于衷。于是,我们便看到了成百上千条这样的类似报道:
“AI真的觉醒了,谷歌工程师因重大发现被迫休假。”
更有趣的是,这位曾在谷歌技术伦理研究所呆过7年的工程师,强烈要求官方赋予LaMDA应有的权利。而谷歌,则迅速组织科学家对LaMDA进行多轮测试,最终对这一“意识崛起论”予以驳斥。
但历来没有人在乎官方说辞。
大众仍然被LaMDA精彩且流畅的对话细节所打动——它不仅深谙《悲惨世界》的文字精髓,还对大洋彼岸极为艰涩难懂的中国佛教典籍《景德传灯录》(下图)小有拙见。
“人工智能的确在向着意识的方向前进,我感觉自己在和一些聪明的东西说话。” 同样在本月,谷歌副总裁 Blaise Agüera y Arcas 曾在《经济学人》上亲自撰稿做营销式解读,再添一把火。
虽然他的这些说辞,被很多科学家形容为“好听但却是些屁话”。
这一段对话截取自工程师与LaMDA的对话细节,前者让算法解释一个佛教故事含义,算法的解答跟答案没太大出入。
如同我们此前关于GPT3的系列报道,LaMDA,也是近年来大火的“自然语言处理大模型”家族一员——通过处理巨量文本,建立起的一套参数高达1370亿的神经网络预测算法模型
。
2021年5月谷歌开发者大会上,LaMDA被CEO皮蔡兴高采烈地捧到众人眼前后,据说已经造福于谷歌内部,提高了网页搜索与文本自动生成的能力。未来被预测将会直捣“语音市场”,性能完胜亚马逊Alexa与苹果Siri。
它的训练数据来自包括问答网站、维基百科等超过一万亿个单词,涉及多种角色的对话模式。这个庞大的数据库非常有利于算法生成风格不同的文本
——特别是在跟你聊天时,自然、生动、流畅且富有哲理
都是“基本功”。
当然,这个本事我们已经在OpenAI的大模型GPT3上领教过。因此,如果你能了解大模型的独特运行机制,观摩过大模型续写的新闻报道、哈利波特与红楼梦的文本,那么,就不会对LaMDA的表现出过多惊疑。
[物价飞涨的时候 这样省钱购物很爽]
无评论不新闻,发表一下您的意见吧
如果把这看做是一场精彩的营销事件,那么两周来,6月上旬,一个关于“LaMDA有了人类情绪与主观意识”的结论,被谷歌一名叫Blake Lemonie的算法工程师,以个人名义,用一份长达21页的对话报告投放在了Twitter上,引发了炸裂式影响。没有媒体会对开了智的算法无动于衷。于是,我们便看到了成百上千条这样的类似报道:
“AI真的觉醒了,谷歌工程师因重大发现被迫休假。”
更有趣的是,这位曾在谷歌技术伦理研究所呆过7年的工程师,强烈要求官方赋予LaMDA应有的权利。而谷歌,则迅速组织科学家对LaMDA进行多轮测试,最终对这一“意识崛起论”予以驳斥。
但历来没有人在乎官方说辞。
大众仍然被LaMDA精彩且流畅的对话细节所打动——它不仅深谙《悲惨世界》的文字精髓,还对大洋彼岸极为艰涩难懂的中国佛教典籍《景德传灯录》(下图)小有拙见。
“人工智能的确在向着意识的方向前进,我感觉自己在和一些聪明的东西说话。” 同样在本月,谷歌副总裁 Blaise Agüera y Arcas 曾在《经济学人》上亲自撰稿做营销式解读,再添一把火。
虽然他的这些说辞,被很多科学家形容为“好听但却是些屁话”。
这一段对话截取自工程师与LaMDA的对话细节,前者让算法解释一个佛教故事含义,算法的解答跟答案没太大出入。
如同我们此前关于GPT3的系列报道,LaMDA,也是近年来大火的“自然语言处理大模型”家族一员——通过处理巨量文本,建立起的一套参数高达1370亿的神经网络预测算法模型
。
2021年5月谷歌开发者大会上,LaMDA被CEO皮蔡兴高采烈地捧到众人眼前后,据说已经造福于谷歌内部,提高了网页搜索与文本自动生成的能力。未来被预测将会直捣“语音市场”,性能完胜亚马逊Alexa与苹果Siri。
它的训练数据来自包括问答网站、维基百科等超过一万亿个单词,涉及多种角色的对话模式。这个庞大的数据库非常有利于算法生成风格不同的文本
——特别是在跟你聊天时,自然、生动、流畅且富有哲理
都是“基本功”。
当然,这个本事我们已经在OpenAI的大模型GPT3上领教过。因此,如果你能了解大模型的独特运行机制,观摩过大模型续写的新闻报道、哈利波特与红楼梦的文本,那么,就不会对LaMDA的表现出过多惊疑。
[物价飞涨的时候 这样省钱购物很爽]
分享: |
注: | 在此页阅读全文 |
延伸阅读 | 更多... |
推荐: