随着人工智能(AI)在图像生成领域取得飞速发展,AI新威胁悄然浮出水面:它让我们质疑真实图像的可靠性。
起初,人们对AI生成逼真图像感到兴奋,但随着“AI生成的图片”屡次冒充真实照片,这种兴奋逐渐变为担忧。
一次特大暴雨后,西班牙瓦伦西亚地区的街道上汽车漂浮并堆积成山的照片引起了争议。然而,仔细观察后,人们发现汽车车门似乎经过拼接,质疑其真实性。令人惊讶的是,这张照片并非AI生成,而是真实拍摄的。
类似的事件也发生在飓风袭击佛罗里达州期间,一张身穿救生衣的小女孩在救生艇上抱着小狗流泪的照片广泛传播。这张图“AI味”更浓,经过调查,证实为AI生成。
这些事件凸显了AI图像生成技术日益逼真的趋势,让人们很难区分真实和虚假图像。更令人担忧的是,不法分子利用AI生成假新闻博取眼球,甚至造成市场恐慌。
去年五月,一张五角大楼爆炸的照片在社交媒体上流传,导致股市下跌。最终,消防部门出面辟谣,才让事态平息。
由于担心被骗,人们开始反向操作:只要不认识,就是AI图。然而,这种做法也带来了后果。
Meta等平台积极推广AI生成内容,并提供激励措施。如果执行“一律打成AI”的策略,可能会有效打击假消息的传播,但同时也可能让真正的伤害消失在信息海洋中。
互联网观察基金会(IWF)警告,过去六个月,AI制作的非法内容数量超过前一年的总量。这些内容包括儿童色情图片和视频,以及名人Deepfake视频。
由于AI生成图像逼真,执法人员难以确定图像中是否包含真人受害者,从而错过干预的机会。
“我们处理的几乎所有包含AI生成的儿童性虐待材料的报告或链接,都是在明网上发现的。像我们这样的组织或警察,可能会被成百上千张新图片压垮,我们并不总能知道是否真的有一个孩子需要帮助。”IWF的分析师表示。
类似地,当真实反映险情的消息被认定为“AI做”,可能会错过最佳施救时间。
在“眼前为实”到“眼见不再为实”的转变中,人们对网上信息的信任正在消失。出于自我保护,一律打成AI的确是有效策略,但一切都不值得相信的世界,会更好吗?
随着AI图像生成技术不断进化,我们必须寻找新的方法来辨别真实和虚假图像,并在信任和怀疑之间取得平衡。只有这样,我们才能保持网上信息的可靠性和安全性。
原创文章,作者:讯知在线,如若转载,请注明出处:http://mip.xzxci.cn/2024/11/17/16187.shtml