火眼金睛招识别 人工智能生成图片

你有没有发现普京左侧的警察有六根手指?这是AI图片生成工具常犯的错误
近来不少图片在网上热传,比如:俄罗斯总统普京看上去似乎被捕了;或者,特斯拉总裁马斯克和通用汽车女总裁博拉(Mary Barra)手牵手。
这只是众多人工智能图片的两个例子。甚至有摄影师也曾滥用过这一技术,发表合成的照片。
有些这样的图片是为了搞笑。然而,专家说,有时候,人工智能技术生成的图片也会带来危险,比如使人们得到错误的信息,或者被用于宣传。
从未发生的地震
如果涉及到名人,比如普京或者川普,那么,要澄清真假是很快的。然而,倘若涉及到的并非名人,那就很难很快地阻止以讹传讹。
比如,德国议会极右翼选项党的一名议员就在其instagram账户上传播了一幅人工智能生成的图片,上面是尖叫的人,以此显示他反对难民的到来。
人工智能专家爱德(Henry Ajder)向德国之声表示,除了以人物为主题的假照片之外,其它种类的人工智能合成图片也能带来信息的扭曲。

马斯克牵手通用女总裁博拉?假的!
有时会有人捏造从未发生过的事件。比如,在Reddit分享的一些图片据称显示的是2001年美加西北部太平洋海岸的一场严重地震。
然而,这是一场从未发生过的地震。专家爱德说:“如果你合成一张非人物景观的照片,那很难被识别出是假的。”
尽管如此,人工智能合成图片的工具并非完美,即便不断完善。截至2023年4月,相关程序包括Midjourney,DALL-E或者DeepAI。德国之声“事实核查”团队在此有一些建议,帮助你发现假照片。
1.放大仔细看
搜寻相关照片你能找到的最高清晰度的一张,然后放大来看细节。
2. 找到最早的发图来源
有时读一下图片最早发布的网站上相关的评论留言,你会搜寻到关于这幅图片的某些信息。
或者,你也可以使用谷歌的图片反向搜索功能,或者TinEye,Yandex。或许能找到最早的发图来源。有时候,你也会发现一些有可信度的媒体已经对其中某些图片进行了事实核查。
3. 关注身体比例
人工智能生成的图片时常会出现人体某个部分比例失调的问题。比如,手太小,或者手指太长。或者头、脚与身体其它部分不匹配。
[加西网正招聘多名全职sales 待遇优]
| 分享: |
| 注: | 在此页阅读全文 |
推荐:
火眼金睛招识别 人工智能生成图片