DeepSeek的副作用,被越来越多人发现

技术是把双刃剑。


说在前面:

AI确实是趋势,也很大程度上提高效率,特别是DeepSeek开源之后,AI的使用更加普及,现在不管是政务系统,还是企业办公,都要求员工要使用DeepSeek。

但同时,随着使用人数的增加,DeepSeek的副作用,也越来越多的显示出来。

主要有这几个:

1、一本正紧地瞎编

已经有很多人发现了,DeepSeek存在瞎编的情况,对于没有知识储备的人来说,很容易造成认知混乱。

为什么会出现瞎编的情况呢?

我想主要是两个原因:

第一,训练机制

大模型的训练特别强调奖惩机制,这就会让AI倾向于取悦用户,甚至为了完成任务而杜撰和瞎编,当然AI在生成这些信息的时候更天衣无缝,一本正紧的胡说八道,没有知识储备的人90%都会被唬住,信以为真。



如果这些信息被大规模传播之后,再进行二次训练,可能就会成为很多人的共识,估计人类的知识体系可能被颠覆,AI在这方面的效率比社交媒体的信息茧房厉害多了。

第二,语料质量

我们之前说过,开源大模型的问题在于:

它的推理能力是蒸馏而来的,也就是说,它训练的语料都是正确答案,缺少信息标注和原始推理的过程。


这可能在遇到一些错误信息的时候,无法识别,同时因为奖惩机制的关系,迎合用户生成了错误的信息。



所以,腾讯版DeepSeek接入公众号文章做训练,可能真的会增加幻觉的程度。

总结一下:

在一本正紧瞎编这部分,可能是多方面的问题,但如果不及时介入的话,造成的问题还是很严重的:

AI可能提高了很多人的认知下限,但是锁死了绝大部分人的认知上限,大家都活在AI制造的信息茧房里。

有点科幻了。

2、被用来做信息污染

[加西网正招聘多名全职sales 待遇优]
这条新闻还没有人评论喔,等着您的高见呢
上一页123下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)



    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站