生成AI在以色列-哈马斯的虚假信息中扮演着意想不到的角色

人工智能在以色列与哈马斯的虚假信息中扮演着关键角色

在哈馬斯于10月7日對以色列發起“突襲”行動以來的幾周裡,隨之而來的衝突產生了空前的“虛假訊息浪潮”,這場“演算法驅動的戰爭迷霧”使得主要新聞機構陷入困境,社交媒體公司陷入困境。

以色列未能阻止哈馬斯的襲擊,顯示監控過度的危險

Matt Burgess和Lily Hay Newman

加薩的醫療系統濒临崩溃

Grace Browne

在加薩的記者轉向無線電和發電機以保持新聞流動

Tom Bennett

然而,在社交媒體上流傳的虛假圖像和視頻中,由人工智能工具生成的內容仍然相對較邊緣。儘管有人懷疑以色列哈馬斯戰爭是否成為首次由虛假生成的AI圖像主導的衝突,但這項技術的影響更加複雜和微妙。

大西洋理事會的副編輯Layla Mashkoor表示:“肯定有AI圖像在流通,但我認為它在信息傳播中起主導作用的程度還不夠。”該組織研究網絡虛假信息。

Mashkoor表示,主要是激進分子利用AI生成的虛假信息來尋求支持,或給人以更廣泛支持的印象。例如,有一個由AI生成的巨幅廣告牌在特拉維夫宣揚以色列國防軍,一個以色列帳戶分享假圖像,顯示人們為以色列國防軍歡呼,一個以色列影響者運用AI生成對哈馬斯的譴責,以及描繪以色列轟炸加薩受害者的AI圖像。

她說:“就我在線上看到的一般使用情況來說,主要是為了鼓動支持,這在目前來說不是最惡毒利用AI的方式。”

這里的一個關鍵因素是虛假信息的大量流傳,這使得AI圖像難以影響對話。“信息空間已經被真實和真實的圖像和片段淹沒,”Mashkoor說,“這本身就使得社交媒體平台淹沒了。”

哈佛肯尼迪學院謬論評論的一篇最新論文反映了這一點,該論文探討了生成AI在全球散布虛假信息中可能發揮的作用。論文中,作者寫道對技術影響的擔憂是“誇大的”。儘管是的,AI理論上可以讓人們以更快的速度散播誤導信息,但那些尋找此類誤導信息的人,通常是那些對機構不信任的人,或者是強硬黨派,已經有大量熟悉的胡說八道可供追尋,從陰謀論網站到4chan論壇。沒有更多的需求。

該論文結論說:“考慮到人類在歷史上展示出來的創造力(撒謊)故事以及人類已經有的在全世界創造和散布虛假信息的自由,不太可能有大部分人在尋找他們在線或離線找不到的虛假信息。”

此外,只有當人們看到虛假信息時,虛假信息才會獲得力量,而考慮到人們花在病毒式內容上的時間是有限的,影響是微不足道的。

至于可能出现在主流信息流中的图像,作者指出,虽然生成式人工智能理论上可以生成高度个性化、高度逼真的内容,但Photoshop或视频编辑软件也可以做到。改变模糊的手机视频的日期可能会同样有效。记者和事实核查人员与虚假视频相比,更难应对的是断章取义的图像,或者那些经过粗暴篡改以使它们成为它们本不是的东西,比如将视频游戏镜头呈现为一次哈马斯的袭击。

从这个意义上说,过度关注这种华丽的新技术通常是一种误导。“实际逼真并不总是人们在互联网上寻找或所需要的东西,”这篇论文的共同作者、苏黎世大学数字民主实验室的博士后研究员萨沙·阿尔泰(Sacha Altay)补充说。

马什库尔解释道,这在供给端也是如此;发明并非意味着实施。“有很多方法可以操纵对话或操纵在线信息空间,”她说。“虽然AI生成软件目前易于获取,但如果你在寻找它,肯定有更容易操纵事物的方法。”

肯尼迪学院论文的另一位作者、牛津互联网研究所的博士生费利克斯·西蒙(Felix Simon)警告说,他的团队的评论并不意在结束关于可能危害的辩论,而是试图回应关于通用AI将引发“真实末日”的说法。这种恐慌常常伴随着新技术的出现。

撇开这种世界末日的观点,更容易研究生成式人工智能如何实际融入现有的虚假信息生态系统。例如,加州大学伯克利分校信息学院的教授汉尼·法里德(Hany Farid)认为,这种技术是一种“幽灵”,悬浮在声音和视频上,声称来自冲突,并且他每天接到六到十二个记者的电话询问真实性。“对于很多人来说,能够抹去不便之实的能力绝对在这场冲突中起了作用,”他说。

法里德引用了多个立即受到这种否认的例子,包括有人指出关于谁发动了对加沙Al-Ahli Arab医院的导弹袭击的各种数字证据,以及有关监控下儿童被埋在瓦砾下的图像,其中一些是真实的,一些是假的

其中最著名的例子之一是以色列总理本雅明·内塔尼亚胡在自己的X账号上发布的烧伤儿童照片。这些照片被发表后,有人把他们输入检测工具AI or Not,据用户称该工具确定它们是AI制作的。法里德说,他的团队分析了这些照片,并得出结论说没有使用AI,但怀疑的种子已经被种下。当有人用AI把其中一张照片中的孩子替换为小狗时,情况更加混乱。

“然后那个照片在网上流传开来,人们会说:‘等一下,如果他能制作那个照片,那个照片可能也是假的,现在这两个版本都流传出去了,每个人都开始说,‘哦,小狗才是原始的,这个是假的,’于是你就把水搞混了,”法里德说。

换句话说,这种传播方式遵循了一个历史模式:虚假信息在社交媒体上传播,然后通过算法和人类放大。“在更广泛的背景下,我们对快速变化的高影响力世界的推理能力来说,我认为这场冲突比我们过去见到的更糟糕,”法里德说。“我认为通用AI是其中的一部分,但它不仅仅是通用AI。这太过简单了。”