后AGI时代 当99%的人类价值归零 资本主义会幸存?
我们再进一步推,对于所谓的信息茧房,我们真的扪心自问,有多少人真的不想要信息茧房?其实人都是一种特别习惯待在自己思想舒适区的生物。
所以当你在批判信息茧房的时候,有没有想过,在那个无偏私的审判者面前,其实你就配得到一个信息茧房?
所以我觉得,当我们去开始讨论正义论的时候,我们会发现当算法治理完成的一刹那,我们整个人类的审判随之而来。
我们去讲利维坦(人类君主)有问题的时候,其实蕴含着一个假设,是君主可以以他个人的欲望和权力意志来随意地对待我们。但是AI并不是以他的权力和意志来随意对待我们,它就是按照我们的欲望来对待我们。
郝博阳: 但是现在之所以会有信息茧房,一方面也是因为公司本身想要让你在它的App上留更多时间,以便它获得更高的商业利益。它在这个过程中用了很多方法。
张笑宇: 我觉得这种“trick”(诡计)的元素肯定是存在的。但是只要第一你给它时间,第二它不是一家公司垄断,而是不同的公司在竞争,那么公司的竞争之间肯定会出现推荐算法的进步。长期来看,肯定是推荐算法越先进、那个越了解你需求的会胜出。
郝博阳: 按你说的这个逻辑,信息茧房好像是必然的结果。
张笑宇: 对,因为还是我们刚才说那句话,在这个世界上钱是最严肃的东西。只要在这个过程中推荐算法的指导规则是钱,我觉得最后它就会涌现出那个对所有人来说都更加匹配“you deserve it”(你应得的)的那种状态。
郝博阳: 你的表述中有一个无限外推的逻辑,好像我们最终不知道该去指责谁了,只能接受“是什么”,而没有办法说“凭什么”。
张笑宇: 第一个问题是,困在算法里的本质,我认为不是外卖平台用算法把你困住了,而是你生活中的另外一部分——比如你的工作福利或者劳动权利——没有被推荐算法给很好地照顾好。如果有很多系统来竞争,谁给你的福利和劳动权利更多,你就选择谁,我相信这一块你会很快感受到一个很舒服的状态。
所以当我们在说去问责谁的时候,我们很容易去问责那个大家都看得到的,而非大家没有看到的那部分。但是当你真的用推荐算法设想,当整个国家被超级平台“吃掉”的时候,你应该设想的是,所有部门、所有指标都用了推荐算法之后,那个状态是什么样子。
郝博阳: 是一个无偏私的,真的对你的福祉、对你的欲望负责的AI系统?
张笑宇: 这一块本身是我们技术上可以做到的。但真到了那个时候,最终的结果是来自于你当下自己的所作所为。如果你认为人类就是配被压榨,AI将来就会用这个语料来压榨你。如果你认为人类就是配得到一个国家之间互相冲突的世界,那AI就会认为你是一种这样的动物。如果你是一个希望用爱来填充彼此空间的人,那AI也会觉得这个物种需要一种特别重要的资源叫“爱”,它也会用这种方式来对待你。
我觉得可能在你没有这种无偏私的外部审判者的时候,你不会去想这个问题。但你的行为,其实是会受到今天AI的审判的。你自己是要承担这个道德责任的。
6. 后AI时代的新社会契约:在时间序列上重塑罗尔斯正义论
郝博阳: 那在一定程度上,我们可以用“对齐”这样的方式来解决它,而不是单纯从语料训练来做。
张笑宇: 这就到了我的另一个技术原则,叫做超级智能。因为“对齐”的本质,我认为至少从目前来讲,是你用低级智能(人类)去要求高级智能(AI)。假设我们认为技术长期来看是能够继续突破的,我也相信它是一定能突破的,超级智能有一天是会到来的。
真的当它的智能水平比我们高的时候,你会发现你不可能用你的道德规则去要求它,就像猴子不能用自己的社会规则去要求人一样。
这就涉及到我书的最后一部分,就是超级智能凭什么跟我们和平相处?有一些AI毁灭论者认为,AI本质上永远比人类高级,那个时候它不需要对你有恶意,它只要不关心你,你就会被它毁灭。就像人盖房子,不会关心这个地方曾经有一窝蚂蚁,他就把蚂蚁的洞穴给摧毁了。
那蚂蚁有办法约束人吗?永远没有办法。
所以这个问题是说,当你低级智能真的没有办法约束高级智能,而高级智能又必然要出现的时候,双方和平共处的基础在哪里?
我把它叫做文明契约。
[加西网正招聘多名全职sales 待遇优]
好新闻没人评论怎么行,我来说几句
所以当你在批判信息茧房的时候,有没有想过,在那个无偏私的审判者面前,其实你就配得到一个信息茧房?
所以我觉得,当我们去开始讨论正义论的时候,我们会发现当算法治理完成的一刹那,我们整个人类的审判随之而来。
我们去讲利维坦(人类君主)有问题的时候,其实蕴含着一个假设,是君主可以以他个人的欲望和权力意志来随意地对待我们。但是AI并不是以他的权力和意志来随意对待我们,它就是按照我们的欲望来对待我们。
郝博阳: 但是现在之所以会有信息茧房,一方面也是因为公司本身想要让你在它的App上留更多时间,以便它获得更高的商业利益。它在这个过程中用了很多方法。
张笑宇: 我觉得这种“trick”(诡计)的元素肯定是存在的。但是只要第一你给它时间,第二它不是一家公司垄断,而是不同的公司在竞争,那么公司的竞争之间肯定会出现推荐算法的进步。长期来看,肯定是推荐算法越先进、那个越了解你需求的会胜出。
郝博阳: 按你说的这个逻辑,信息茧房好像是必然的结果。
张笑宇: 对,因为还是我们刚才说那句话,在这个世界上钱是最严肃的东西。只要在这个过程中推荐算法的指导规则是钱,我觉得最后它就会涌现出那个对所有人来说都更加匹配“you deserve it”(你应得的)的那种状态。
郝博阳: 你的表述中有一个无限外推的逻辑,好像我们最终不知道该去指责谁了,只能接受“是什么”,而没有办法说“凭什么”。
张笑宇: 第一个问题是,困在算法里的本质,我认为不是外卖平台用算法把你困住了,而是你生活中的另外一部分——比如你的工作福利或者劳动权利——没有被推荐算法给很好地照顾好。如果有很多系统来竞争,谁给你的福利和劳动权利更多,你就选择谁,我相信这一块你会很快感受到一个很舒服的状态。
所以当我们在说去问责谁的时候,我们很容易去问责那个大家都看得到的,而非大家没有看到的那部分。但是当你真的用推荐算法设想,当整个国家被超级平台“吃掉”的时候,你应该设想的是,所有部门、所有指标都用了推荐算法之后,那个状态是什么样子。
郝博阳: 是一个无偏私的,真的对你的福祉、对你的欲望负责的AI系统?
张笑宇: 这一块本身是我们技术上可以做到的。但真到了那个时候,最终的结果是来自于你当下自己的所作所为。如果你认为人类就是配被压榨,AI将来就会用这个语料来压榨你。如果你认为人类就是配得到一个国家之间互相冲突的世界,那AI就会认为你是一种这样的动物。如果你是一个希望用爱来填充彼此空间的人,那AI也会觉得这个物种需要一种特别重要的资源叫“爱”,它也会用这种方式来对待你。
我觉得可能在你没有这种无偏私的外部审判者的时候,你不会去想这个问题。但你的行为,其实是会受到今天AI的审判的。你自己是要承担这个道德责任的。
6. 后AI时代的新社会契约:在时间序列上重塑罗尔斯正义论
郝博阳: 那在一定程度上,我们可以用“对齐”这样的方式来解决它,而不是单纯从语料训练来做。
张笑宇: 这就到了我的另一个技术原则,叫做超级智能。因为“对齐”的本质,我认为至少从目前来讲,是你用低级智能(人类)去要求高级智能(AI)。假设我们认为技术长期来看是能够继续突破的,我也相信它是一定能突破的,超级智能有一天是会到来的。
真的当它的智能水平比我们高的时候,你会发现你不可能用你的道德规则去要求它,就像猴子不能用自己的社会规则去要求人一样。
这就涉及到我书的最后一部分,就是超级智能凭什么跟我们和平相处?有一些AI毁灭论者认为,AI本质上永远比人类高级,那个时候它不需要对你有恶意,它只要不关心你,你就会被它毁灭。就像人盖房子,不会关心这个地方曾经有一窝蚂蚁,他就把蚂蚁的洞穴给摧毁了。
那蚂蚁有办法约束人吗?永远没有办法。
所以这个问题是说,当你低级智能真的没有办法约束高级智能,而高级智能又必然要出现的时候,双方和平共处的基础在哪里?
我把它叫做文明契约。
[加西网正招聘多名全职sales 待遇优]
| 分享: |
| 注: | 在此页阅读全文 |
推荐:
后AGI时代 当99%的人类价值归零 资本主义会幸存?