最近一張關(guān)于燃氣漲價的不實信息圖片在網(wǎng)絡(luò)群組瘋狂流傳,引發(fā)當?shù)鼐W(wǎng)民的熱烈議論,一時間人心惶惶,造成了極為不良的社會影響。
而令人咋舌的是,這一謠言的源頭竟是網(wǎng)民鄭某借助AI工具炮制而成。
鄭某在輸入“南寧”“燃氣”“漲價”等關(guān)鍵詞后,僅憑AI工具給出的回復(fù),在未進行任何核實的情況下,便將信息截圖發(fā)至網(wǎng)絡(luò)群組,最終導致謠言像野火般迅速蔓延。

如今公安機關(guān)已依法對鄭某實施行政處罰,這無疑是第一例因AI造謠而遭受懲處的典型案例,也為我們所有人敲響了一記振聾發(fā)聵的警鐘,當我們盡情享受AI帶來的文字生成便利時,必須時刻保持清醒,牢記以下關(guān)鍵要點。
一、對AI生成內(nèi)容的真實性存疑是第一要務(wù)
AI雖強大,但并非全知全能的“真理之源”。
其本質(zhì)是基于大量的數(shù)據(jù),以及預(yù)設(shè)的算法運行的程序,而且這就決定了,它生成的內(nèi)容,可能存在諸多的偏差。
從數(shù)據(jù)層面去看,數(shù)據(jù)自身也存有差錯;而且有可能還存在著陳舊的狀況。
比如說在用于訓練的數(shù)據(jù)集合里,倘若某個地區(qū)燃氣的政策方面的數(shù)據(jù)已然較為老舊,而且還未曾及時地予以更新,這樣的話,人工智能在處理相關(guān)問題之時,AI就很有可能會得出與實際狀況不相契合的結(jié)論。
再從算法角度去剖析一下,算法旨在能夠盡可能地去滿足大多數(shù)較為常見的情況,但是那復(fù)雜且多變的現(xiàn)實世界,總歸會有超出算法所考量范圍的那些“意外”情況。
以此次燃氣漲價謠言為例,也許AI在其數(shù)據(jù)和算法體系內(nèi),基于過往部分地區(qū)燃氣價格調(diào)整的模式或趨勢,生成了南寧燃氣漲價的內(nèi)容,可它無法洞察南寧當?shù)卣鎸嵉娜細夤?yīng)、政策導向等實際情況。
筆者經(jīng)常使用各種AI,發(fā)現(xiàn)類似于deepseek這類有深度思考的大模型,尤其喜歡造謠。
因此當我們拿到AI生成的文字時,切不可盲目輕信,必須將其視為有待核實的“原始素材”。
無論是涉及民生的物價漲跌,而且關(guān)乎社會動態(tài)的各類資訊,都需要通過官方渠道,其實權(quán)威媒體等去進行多方的印證。
例如去查找“南寧當?shù)氐娜細夤?,所發(fā)布的正規(guī)通告”、“政府物價部門所掌握的資料”,或是向有關(guān)的職能部門進行咨詢等。唯有經(jīng)歷了這樣,嚴謹且細致的核實流程,才能夠最大限度地保證信息的準確可靠,防止自己成為謠言的散播者。
二、深刻認識AI生成內(nèi)容的局限性
AI生成文字在邏輯連貫性和深度洞察方面,往往難以與人類深度思考的成果相媲美。
在邏輯方面,它也許會呈現(xiàn)出跳躍、矛盾以及牽強附會這樣的狀況。其實這種情況可能偶爾會發(fā)生,畢竟邏輯不是絕對完美的。
比如在研究某一個經(jīng)濟現(xiàn)象的時候,AI有可能會把一些,看起來好像有關(guān)聯(lián)的因素列舉出來,從外表來看,這些因素,似乎是有聯(lián)系的。這個時候,對于這些因素之間的因果關(guān)系,它的解釋通常都很模糊,甚至有時候還會出現(xiàn)因果顛倒的情況。
在深度洞察上,對于一些需要結(jié)合社會背景、人性特點、歷史發(fā)展脈絡(luò)等多維度分析的復(fù)雜問題,AI生成的文字常常浮于表面。
以分析社會熱點事件背后的深層次原因來說,人類專家能夠從社會心理、文化傳統(tǒng)、利益博弈等多個層面進行剖析,而AI生成的內(nèi)容可能僅僅圍繞事件本身的表面現(xiàn)象進行簡單描述和常規(guī)解讀。
這警示我們,在使用AI生成文字時,尤其是在需要深度思考和嚴謹論證的場景下,比如學術(shù)寫作、重要決策參考等,不能將AI生成內(nèi)容直接作為最終成果,而是應(yīng)該把它當作啟發(fā)思路的起點,并且在此基礎(chǔ)上運用我們自身的知識儲備和思維能力,進行深入分析、完善以及修正。
三、時刻警惕AI生成文字中的潛在偏見與誤導
從法律層面而言,利用AI生成并傳播虛假信息,造成不良社會影響,已然觸碰了法律紅線。
就像鄭某造謠燃氣漲價事件,根據(jù)《中華人民共和國治安管理處罰法》相關(guān)規(guī)定,散布謠言、謊報險情、疫情、警情或者以其他方法故意擾亂公共秩序的,處五日以上十日以下拘留,可以并處五百元以下罰款;情節(jié)較輕的,處五日以下拘留或者五百元以下罰款。
在更嚴重的情形下,如果說由于AI造謠,從而引發(fā)了巨大的社會恐慌,并且致使了嚴重的經(jīng)濟損失,抑或是社會秩序陷入混亂,如此一來,或許會觸犯刑法,進而遭受更為嚴苛的懲處。
AI的數(shù)據(jù)來源較為廣泛,且十分復(fù)雜,其間也許夾雜著各類偏見以及錯誤的認知。
當這些帶有偏見的數(shù)據(jù),被用于訓練AI模型時,生成的文字內(nèi)容就可能將這些偏見,進一步傳播擴散。
比如在一些,諸如涉及不同性別、種族、地域這類的問題上,要是訓練數(shù)據(jù)存有偏差,AI生成的文字,可能會進一步強化對某些群體的刻板印象,進而引發(fā)歧視和誤解。
一些不良商家,或許還有別有用心之人,可能會借助AI來生成那種看上去顯得客觀中立,不過實際上卻暗暗隱藏著推銷意圖,或是帶有錯誤導向的文字,進而誘導公眾作出錯誤的決策。
因此我們在閱讀以及使用AI生成文字的時候,要具備批判性的思維,敏銳地識別其中或許存在的偏見以及誤導。
對于涉及重要決策的信息,像投資理財建議啦、醫(yī)療健康指導之類的,更得要謹慎地去對待,防止被AI生成的不實或是有偏差的信息給誤導了,進而造成不可挽回的損失。
最后,我愿意借用一句廣告詞來提醒各位:“AI雖好,可不要貪用哦!”
熱門跟貼