当AI开始"故意变差",真正的危险就降临了

还记得几年前人类第一次见到 AI 生图时的反应吗?


先是靠判断违背物理常识的“一眼假”,比如生成的手指个数不对又变形,生成的人类永远吃不好面条

随着 AI 发生常识性错误在一点点减少,它又走向另一个“极端”,生成的人像皮肤太光滑、光线太扁平、构图太端正,乍一看像P过的影楼写真。“这不像是人拍的”,对此,我们还能发出经验主义的警觉。



猛一看很真实,细看太过完美光滑|APOB AI

但是,朋友们,在这个人机难辨的时代,任何识别经验都会被随时淘汰。

新的 AI 图像模型开始主动往“差一点”的方向走了。它们学会模仿手机摄影出现的不完美的质感:对比度不高、锐化过头、阴影被硬生生拉亮、构图带点随意,甚至有点糊。

也就是说,AI 不再追求生成“最好的照片”,而是试着生成“你会拍出来的那种照片”。而正是这些“瑕疵”,让图像突然变得可信了。

这个变化节点透露出一丝更加“危险”的气息,AI 正在学习如何显得不那么完美,就像人类一样。

AI:我装的

真实世界从来不是高清、完美、对称、干净的。我们之所以相信一张照片是真的,并不是因为它好看,而是因为它符合我们记录现实的方式。

早期的 AI 图像,它们最大的破绽是一种诡异的“完美”。图像每一颗像素都太滑、太亮、太干净了,就像是把“磨皮”开到最大后又抹了层油和蜡,人像宛如蜡像,不生动。

原因很简单,当你输入“一张桌子”,AI 会生成一个“在任何评判标准下都符合的结果”,它大概率是一张“教科书图”。而且,从数据来源来说,往往被反复标注和引用的图片都是这种“标准图”,模型早期的核心逻辑是在真实中“求平均值”,AI 会调取它数据库里见过的几十亿张桌子,然后取一个中间值,那种随手一拍家里的脏乱桌子图在这种巨量的平均之下被“稀释”了。




去掉“油蜡感”是 AI 生图拟真的重点|X

而今天训练模型的人在教 AI “搞砸”。

以最近 Gemini 里集成的 Nano Banana 为例。它生成的图像里,有着明显的过度锐化,对比度拉得死高,暗部细节丢失,甚至还有那种因为传感器太小而产生的特有噪点。

我们知道因为手机能承载的传感器很小,为了弥补光学上的先天不足,手机厂商会使用多帧合成算法,“暴力”地提升阴影亮度,锐化边缘以制造“清晰”的假象。

久而久之,我们的眼睛被手机厂商驯化得习惯了“手机味儿”,当 AI 开始模仿这种物理光学上的局限性时,其实是模仿人类的被上一代机器“驯化”后的认知方式。

[加西网正招聘多名全职sales 待遇优]
这条新闻还没有人评论喔,等着您的高见呢
上一页123下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     延伸阅读
    日本控危险行为!中共围台军演「加剧台海紧张」 当事律师再谈取款4万遭盘问事件:发声没那么危险
    华人子女不愿说中文的真正原因 余华塌房?新书被骂上天 真正的问题却不在"黄"
    逼近美国门户!北京发力开启危险之路 银价暴涨不是炒作!而是"AI竞赛"真正的刚需
    日媒揭一年内最危险行业排名,第一出乎意料 美国封锁、库存激增,"委内瑞拉开始关闭油井"
    瞒不住了!中国真正的"斩杀线"曝光 为保住百万年薪 上海中产家庭开始第4次跨国搬迁
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)



    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站