DeepSeek的副作用,被越来越多人发现
技术是把双刃剑。
说在前面:
AI确实是趋势,也很大程度上提高效率,特别是DeepSeek开源之后,AI的使用更加普及,现在不管是政务系统,还是企业办公,都要求员工要使用DeepSeek。
但同时,随着使用人数的增加,DeepSeek的副作用,也越来越多的显示出来。
主要有这几个:
1、一本正紧地瞎编
已经有很多人发现了,DeepSeek存在瞎编的情况,对于没有知识储备的人来说,很容易造成认知混乱。
为什么会出现瞎编的情况呢?
我想主要是两个原因:
第一,训练机制
大模型的训练特别强调奖惩机制,这就会让AI倾向于取悦用户,甚至为了完成任务而杜撰和瞎编,当然AI在生成这些信息的时候更天衣无缝,一本正紧的胡说八道,没有知识储备的人90%都会被唬住,信以为真。

如果这些信息被大规模传播之后,再进行二次训练,可能就会成为很多人的共识,估计人类的知识体系可能被颠覆,AI在这方面的效率比社交媒体的信息茧房厉害多了。
第二,语料质量
我们之前说过,开源大模型的问题在于:
它的推理能力是蒸馏而来的,也就是说,它训练的语料都是正确答案,缺少信息标注和原始推理的过程。
这可能在遇到一些错误信息的时候,无法识别,同时因为奖惩机制的关系,迎合用户生成了错误的信息。

所以,腾讯版DeepSeek接入公众号文章做训练,可能真的会增加幻觉的程度。
总结一下:
在一本正紧瞎编这部分,可能是多方面的问题,但如果不及时介入的话,造成的问题还是很严重的:
AI可能提高了很多人的认知下限,但是锁死了绝大部分人的认知上限,大家都活在AI制造的信息茧房里。
有点科幻了。
2、被用来做信息污染
[加西网正招聘多名全职sales 待遇优]
这条新闻还没有人评论喔,等着您的高见呢
说在前面:
AI确实是趋势,也很大程度上提高效率,特别是DeepSeek开源之后,AI的使用更加普及,现在不管是政务系统,还是企业办公,都要求员工要使用DeepSeek。
但同时,随着使用人数的增加,DeepSeek的副作用,也越来越多的显示出来。
主要有这几个:
1、一本正紧地瞎编
已经有很多人发现了,DeepSeek存在瞎编的情况,对于没有知识储备的人来说,很容易造成认知混乱。
为什么会出现瞎编的情况呢?
我想主要是两个原因:
第一,训练机制
大模型的训练特别强调奖惩机制,这就会让AI倾向于取悦用户,甚至为了完成任务而杜撰和瞎编,当然AI在生成这些信息的时候更天衣无缝,一本正紧的胡说八道,没有知识储备的人90%都会被唬住,信以为真。

如果这些信息被大规模传播之后,再进行二次训练,可能就会成为很多人的共识,估计人类的知识体系可能被颠覆,AI在这方面的效率比社交媒体的信息茧房厉害多了。
第二,语料质量
我们之前说过,开源大模型的问题在于:
它的推理能力是蒸馏而来的,也就是说,它训练的语料都是正确答案,缺少信息标注和原始推理的过程。
这可能在遇到一些错误信息的时候,无法识别,同时因为奖惩机制的关系,迎合用户生成了错误的信息。

所以,腾讯版DeepSeek接入公众号文章做训练,可能真的会增加幻觉的程度。
总结一下:
在一本正紧瞎编这部分,可能是多方面的问题,但如果不及时介入的话,造成的问题还是很严重的:
AI可能提高了很多人的认知下限,但是锁死了绝大部分人的认知上限,大家都活在AI制造的信息茧房里。
有点科幻了。
2、被用来做信息污染
[加西网正招聘多名全职sales 待遇优]
| 分享: |
| 注: | 在此页阅读全文 |
推荐:
DeepSeek的副作用,被越来越多人发现