最近的一場地震,讓「AI偽造」又上了熱搜。不得不感慨,技術(shù)的發(fā)展有時候真是把雙刃劍啊。

打開網(wǎng)易新聞 查看精彩圖片

1月7日,西藏定日發(fā)生6.8級地震,牽動著全國人民的心。許多網(wǎng)友在社交平臺上為災(zāi)區(qū)祈福,希望能盡一份力。

可就在這當(dāng)口,冒出了一些AI偽造的圖片,如下圖:

打開網(wǎng)易新聞 查看精彩圖片

在部分社交平臺之上,至少有10個賬號發(fā)布了與地震相關(guān)的內(nèi)容,其中有些內(nèi)容甚至收獲了數(shù)萬的轉(zhuǎn)評贊。

不少網(wǎng)友信以為真,還追問孩子的情況。

打開網(wǎng)易新聞 查看精彩圖片

結(jié)果呢?直到上了熱搜才揭露,原來是一場徹頭徹尾的騙局。

越逼真,越危險

越逼真,越危險

在對 AI 生成的圖片或視頻予以評價時,是否具備足夠的寫實(shí)性,經(jīng)常是最為關(guān)鍵的標(biāo)準(zhǔn)之一。

起初,人們也因 AI 能夠生成極為逼真的圖像而興奮不已。然而,后來諸如 “開局一張圖,剩下全靠編” 之類的新聞不斷涌現(xiàn),并且愈發(fā)難以辨別。

上一回,在地球的彼端,同樣是鬧得沸沸揚(yáng)揚(yáng)。

2024年10月4日,颶風(fēng)海倫妮席卷美國,釀成了巨大的災(zāi)禍,成為自 2005 年颶風(fēng)卡特里娜以來,在美國本土大陸造成死亡人數(shù)最多的颶風(fēng)。北卡羅來納州的阿什維爾以及其他受災(zāi)地區(qū)皆被洪水淹沒。

在此情形之下,有這樣一張圖片同樣在社交網(wǎng)絡(luò)上廣泛流傳。

打開網(wǎng)易新聞 查看精彩圖片

畫面中是一個身著救生衣的小女孩,她在救生艇上抱著小狗流淚。這張圖片一經(jīng)出現(xiàn),便迅速在社交網(wǎng)絡(luò)上掀起波瀾。

倘若仔細(xì)端詳,便會發(fā)覺這張圖相較于之前的暴雨圖而言,更具 “AI 味”,從手指的細(xì)微之處到身體的姿態(tài),皆散發(fā)著一種難以言喻的怪異之感。

果不其然,最初發(fā)布這張圖片的帖主也不知此圖的來源,其發(fā)布這一圖片僅僅是為了表達(dá)自己對受災(zāi)民眾的同情。

打開網(wǎng)易新聞 查看精彩圖片

如今,相關(guān)平臺已經(jīng)補(bǔ)充了背景信息,著重強(qiáng)調(diào)這是一張通過技術(shù)生成的圖片,而非真正拍攝的 “照片”。

再來看下方這張圖片,你覺得它是實(shí)拍的呢,還是由 AI 生成的?

打開網(wǎng)易新聞 查看精彩圖片

看起來圖片確實(shí)有些可疑之處,比如某些汽車的車門,堆疊的模樣仿佛是拼接而成的。

那下面這兩張又如何呢?倘若不仔細(xì)去查證,你或許都難以相信,這兩張竟都是拍攝所得的 “真實(shí)照片”。

打開網(wǎng)易新聞 查看精彩圖片

自十月底起,西班牙的瓦倫西亞地區(qū)遭受了特大暴雨的侵襲,一日的降雨量竟等同于一年的降雨量,而且降雨連綿不絕。而瓦倫西亞地區(qū)的街道有諸多斜坡,如此巨大的水量完全足以使汽車漂浮起來,并順著斜坡一路向下滑行。最終,當(dāng)洪水退去時,便出現(xiàn)了最初那張照片中的景象。

打開網(wǎng)易新聞 查看精彩圖片

然而,在面對這些照片時,許多人的反應(yīng)卻是:

這是 AI 制作的吧,假新聞。

人天性中存有對苦難世界的悲憫之情。

在正常且十分冷靜的狀態(tài)下,面對這些圖片,去辨別其是否為AI生成的,相信絕大多數(shù)人都能做到。

然而,當(dāng)知曉處于災(zāi)難背景之中時,人們往往會試圖相信自己所目睹的一切,試圖以自身的善意去援助他人,可那些偽造的圖像卻在逐步摧毀人們的信任與情感,這實(shí)在是令人毛骨悚然。

倘若每次看到苦難的照片,都要去驗(yàn)證其是否為 AI 生成、是否真實(shí)、來源何在以及是否經(jīng)過處理,那么信任終將徹底崩塌。

一律打成 AI

一律打成 AI

再給大家分享個有意思的現(xiàn)象。

2025年是蛇年,現(xiàn)在上某DU搜“蛇 卡通”,第一頁蹦出來的結(jié)果,幾乎全是AI生成的。

打開網(wǎng)易新聞 查看精彩圖片

畫風(fēng)一個比一個油膩,一眼就能看出是AI的劣質(zhì)產(chǎn)物。

再看看Meta旗下的Facebook和Instagram。AI 生成的內(nèi)容也是正日益增多,為啥?因?yàn)槠脚_的激勵政策太誘人了,每個點(diǎn)贊數(shù)超過 1000的帖子,最高可獲得 10 美元的曝光獎勵。

平心而論,如果能夠堅決地貫徹 “一律判定為 AI(生成內(nèi)容)” 的策略,有效地遏制假消息的傳播,促使平臺不再為這類內(nèi)容推送流量、提供補(bǔ)貼,這或許是一條可行的途徑。

畢竟,沒有買賣,就沒有傷害。

互聯(lián)網(wǎng)觀察基金會(IWF)的報告指出,在過去的六個月里,人工智能制作的非法內(nèi)容數(shù)量已經(jīng)超越了前一年的總量,并且這些非法內(nèi)容都是在社交平臺、公共圖庫等公開平臺被發(fā)現(xiàn)的。

打開網(wǎng)易新聞 查看精彩圖片

這些非法內(nèi)容包含 AI 生成的兒童色情圖片、視頻,融合明星名人照片的 Deepfake 視頻,以及生成的兒童性虐待裸照等。

打開網(wǎng)易新聞 查看精彩圖片

更為嚴(yán)峻的是,許多 AI 生成的內(nèi)容已經(jīng)達(dá)到了一個臨界點(diǎn)。由于其逼真程度過高,工作人員難以輕易判定假圖中是否涉及真人,是否真的存在兒童遭到虐待而需要介入的情況。

從“眼前為實(shí)”到“眼見不再為實(shí)”,在網(wǎng)上沖浪時的信任就這么一點(diǎn)點(diǎn)消失了。在這種情況下,出于自我保護(hù)、減少謠言散布,“一律打成AI”似乎是一種有效的策略。

可要是到了一切都不值得相信的地步,那這個世界還能好嗎?

作為一個AI學(xué)習(xí)者,我真心贊成AI標(biāo)識,贊同對AI內(nèi)容的監(jiān)管。

好在,規(guī)則已經(jīng)在路上了。

打開網(wǎng)易新聞 查看精彩圖片

咱們也得時刻保持警惕,別讓AI偽造的假象蒙蔽了雙眼。