隨著人工智能技術(shù)在文本生成、圖片創(chuàng)作、視頻合成等領(lǐng)域的廣泛應(yīng)用,AI生成謠言早已不再是單一信息的復(fù)制或再現(xiàn),而是實現(xiàn)了多重信息的選擇、重組與再創(chuàng)造。從“合成事實”到“偽造輿論”,AI謠言內(nèi)容呈現(xiàn)出更高的逼真度以及更為復(fù)雜的情感色彩,常常“以假亂真”。中國互聯(lián)網(wǎng)聯(lián)合辟謠平臺對今年2月網(wǎng)絡(luò)謠言的梳理分析顯示,當(dāng)月網(wǎng)絡(luò)謠言主要集中在利用AI技術(shù)生成虛假信息、杜撰災(zāi)害事故信息以及炒作社會民生熱點等方面,混淆視聽、誤導(dǎo)認(rèn)知,造成不良影響。可以說,AI技術(shù)驅(qū)動下的信息流變動,不僅挑戰(zhàn)了傳統(tǒng)的信息真?zhèn)螜z證機(jī)制,也對人工智能時代社會公共信任構(gòu)建提出了新的要求。在這樣的背景下,深入探究AI謠言問題,不僅是維護(hù)清朗網(wǎng)絡(luò)空間、保障公眾合法權(quán)益的現(xiàn)實需求,更是理解智能技術(shù)與社會關(guān)系、構(gòu)建合理信息倫理秩序的重要課題。
一、AI謠言的全新表征
隨著人工智能技術(shù)日新月異,網(wǎng)絡(luò)謠言變得愈發(fā)難以辨別。一般來看,網(wǎng)絡(luò)謠言指的是通過網(wǎng)絡(luò)介質(zhì),如社交平臺等傳播沒有事實依據(jù)且?guī)в刑摷傩?、攻擊性、目的性的話語。人工智能生成謠言逐漸形成一種新的網(wǎng)絡(luò)威脅。清華大學(xué)新聞與傳播學(xué)院2024年發(fā)布的研究報告顯示,得益于政府相關(guān)部門對網(wǎng)絡(luò)謠言的積極治理,2023年以來,網(wǎng)絡(luò)謠言整體態(tài)勢平穩(wěn),傳統(tǒng)謠言數(shù)量明顯下降,但伴隨AIGC技術(shù)的高速發(fā)展,一些造謠者不當(dāng)利用AI工具,使得AI謠言信息量增長達(dá)到65%。與傳統(tǒng)的網(wǎng)絡(luò)謠言相比,人工智能的介入顯著地改變了信息傳播景觀,賦予AI謠言諸多前所未有的新表現(xiàn)、新變化、新特點。
(一)謠言形態(tài):從“單模態(tài)拼接”到“跨模態(tài)原生”
傳統(tǒng)謠言的炮制多依賴單模態(tài)拼接手段,造謠者往往在網(wǎng)絡(luò)各個角落搜羅碎片化信息,通過斷章取義、張冠李戴的方式,將不同來源的文字、圖片生硬拼湊在一起。在過往的食品安全謠言中,造謠者可能會截取某食品企業(yè)生產(chǎn)車間的局部畫面,配上其他企業(yè)食品質(zhì)量問題的報道文字,再編造食用后產(chǎn)生不良后果的夸張情節(jié)。這種“單模態(tài)拼接式”的謠言由于素材來源繁雜,拼接痕跡明顯,公眾只要稍加留意其邏輯連貫性、出處可信度等細(xì)節(jié),便不難發(fā)現(xiàn)破綻。
與之相比,生成式人工智能的介入使AI謠言實現(xiàn)了多模態(tài)融合的“原生式生成”。通過對海量數(shù)據(jù)進(jìn)行分析,AI算法能夠精準(zhǔn)把握事物的特征和規(guī)律,進(jìn)而根據(jù)用戶輸入的簡單指令生成極具真實感的內(nèi)容。在圖像生成領(lǐng)域,像Midjourney這樣的主流模型,經(jīng)過數(shù)十億參數(shù)訓(xùn)練,能夠精準(zhǔn)模擬物理世界的各種元素,讓缺乏專業(yè)辨別能力的普通公眾信以為真;在語音生成領(lǐng)域,基于聲紋特征學(xué)習(xí)的TTS技術(shù)能夠精準(zhǔn)捕捉目標(biāo)人物的語調(diào)起伏、呼吸節(jié)奏甚至情緒波動細(xì)節(jié),完美模擬出名人、專家、朋友的聲音,制作出以假亂真的音頻;在此基礎(chǔ)上,視頻理解與生成算法實現(xiàn)了圖像與音頻完美結(jié)合,通過時空注意力機(jī)制實現(xiàn)唇形動態(tài)、微表情變化與語義內(nèi)容的毫秒級匹配,從而生成高度逼真的視頻片段。這種依托AI技術(shù)的原生式謠言從內(nèi)容到形式都是全新構(gòu)建,相較于傳統(tǒng)謠言更加逼真、連貫,突破公眾的傳統(tǒng)感知界限,僅憑直觀感受很難辨別真?zhèn)?,對社會輿論的誤導(dǎo)性更強(qiáng)。
(二)謠言生產(chǎn):從“人工手搓”到“一鍵生成”
傳統(tǒng)謠言生產(chǎn)模式高度依賴人工操作,造謠者需耗費(fèi)大量時間精力完成素材搜集、內(nèi)容編撰與傳播擴(kuò)散等全流程工作。受限于個人知識儲備、信息獲取能力及時間成本,其生產(chǎn)效率低下,且內(nèi)容質(zhì)量參差不齊,傳播范圍往往較為有限。然而,人工智能的高效性、自動化特點極大地降低了謠言生產(chǎn)的技術(shù)門檻和經(jīng)濟(jì)成本。過去需專業(yè)知識與技能支撐的復(fù)雜信息制作流程,如今借助AIGC工具即可簡化為從指令輸入到內(nèi)容生成的簡便操作。用戶僅需掌握簡單的AI工具使用方法,輸入特定關(guān)鍵詞或指令,便能自動抓取網(wǎng)絡(luò)信息,快速生成結(jié)構(gòu)完整、邏輯自洽的謠言。
與此同時,通過自動化腳本與多線程技術(shù)的配合,AI可以同時處理多個任務(wù),實現(xiàn)謠言的大規(guī)模、高效率生產(chǎn)。2024年6月,公安機(jī)關(guān)查處的江西南昌某MCN機(jī)構(gòu)便是一個具有代表性的例子。該機(jī)構(gòu)構(gòu)建了一條全自動謠言“生產(chǎn)線”:負(fù)責(zé)人王某某首先從國內(nèi)某熱點預(yù)測網(wǎng)站獲取潛在關(guān)鍵詞,由此生成文章標(biāo)題;隨后通過語音交互型 AI工具,輸入關(guān)鍵詞抓取網(wǎng)絡(luò)信息,生成數(shù)百至千字文本,并匹配上看似相關(guān)的虛假圖片,形成信息豐富卻完全虛構(gòu)的內(nèi)容;最終借助自動化發(fā)布軟件,將AI生成謠言批量上傳至多平臺賬號對外發(fā)布。據(jù)查證,該機(jī)構(gòu)將虛假信息生產(chǎn)產(chǎn)業(yè)化,最高峰時單日可生成4000至7000篇謠言,通過流量變現(xiàn)與輿論操控每日非法牟利超萬元,對公共信息秩序造成嚴(yán)重破壞。
(三)謠言傳播:從人際、群體傳播到算法自動推薦
傳統(tǒng)的謠言傳播主要依賴于人際關(guān)系和少數(shù)媒體渠道,傳播范圍相對有限,傳播速度也較為緩慢。而在人工智能時代,互聯(lián)網(wǎng)的普及和社交媒體的興起為信息傳播提供了廣闊的平臺和便捷的渠道。AI謠言借助網(wǎng)絡(luò)水軍的推波助瀾以及算法推薦機(jī)制的放大作用,能夠在極短的時間內(nèi)實現(xiàn)廣泛傳播,迅速擴(kuò)散到社會的各個角落。
一方面,網(wǎng)絡(luò)水軍在AI謠言的擴(kuò)散過程中扮演著關(guān)鍵角色。網(wǎng)絡(luò)水軍通常是指受雇于某些組織或個人而在網(wǎng)絡(luò)上有組織地發(fā)布特定信息,以達(dá)到影響輿論、引導(dǎo)公眾認(rèn)知等目的的群體。在AI謠言傳播場景中,他們利用掌握的大量網(wǎng)絡(luò)賬號,通過自動化的發(fā)布工具,將AI生成的謠言迅速發(fā)布到各大社交媒體平臺、論壇、新聞網(wǎng)站等網(wǎng)絡(luò)空間。同時,通過相互點贊、評論、轉(zhuǎn)發(fā)等方式,營造出謠言受到廣泛關(guān)注和討論的假象,吸引更多普通網(wǎng)民的參與和關(guān)注,從而加速謠言的傳播速度。
另一方面,社交媒體平臺和搜索引擎的算法推薦機(jī)制也在很大程度上助推了AI謠言的傳播。算法推薦機(jī)制的核心在于根據(jù)興趣偏好、瀏覽歷史、社交關(guān)系等數(shù)據(jù),為用戶精準(zhǔn)推送其可能感興趣的內(nèi)容。然而,推薦系統(tǒng)本質(zhì)上是爭議性內(nèi)容的放大器,它將用戶注意力聚焦于沖突點,卻忽視了信息的真實性驗證。例如,一些關(guān)于名人隱私、社會熱點事件的 AI 謠言,由于其話題性強(qiáng),能夠吸引大量用戶的點擊和互動,算法會將其視為“優(yōu)質(zhì)內(nèi)容”不斷推送給更多用戶,使謠言的傳播范圍不斷擴(kuò)大。在這樣的情況下,辟謠信息往往因缺乏爭議性而難以獲得同等流量支持,加劇“造謠一張嘴,辟謠跑斷腿”的治理困境。
二、AI謠言的治理困境
AI 謠言所呈現(xiàn)的“跨模態(tài)原生”形態(tài)、“工業(yè)化生產(chǎn)”模式與“算法化傳播”路徑,不僅突破了傳統(tǒng)謠言的傳播邊界,更對既有公共信息治理體系構(gòu)成了嚴(yán)峻挑戰(zhàn)。其中,技術(shù)的復(fù)雜性、傳播的高效性與主體的多元性相互交織,使得治理工作面臨多重難題,需要從技術(shù)、制度、協(xié)作與認(rèn)知層面進(jìn)行系統(tǒng)剖析。
(一)技術(shù)困境:低質(zhì)量數(shù)據(jù)造成嚴(yán)重的AI幻覺
AI幻覺指的是人工智能系統(tǒng),特別是大型語言模型(LLM)和生成式AI工具,在運(yùn)行過程中產(chǎn)生看似合理但實際上并不準(zhǔn)確、不真實或完全虛構(gòu)的信息現(xiàn)象。這種現(xiàn)象并非AI系統(tǒng)故意欺騙或開玩笑,而是其內(nèi)部機(jī)制在特定條件下的產(chǎn)物,類似于人類在特定情境下產(chǎn)生的幻覺感知。例如,AI可能會編造不存在的書籍、研究報告、法律條文,或者提供錯誤的歷史日期、地理信息、科學(xué)數(shù)據(jù)等。在圖像生成領(lǐng)域,AI繪畫工具可能會生成手指數(shù)目異常或肢體不全的人物圖像。這些錯誤的輸出并非源于AI的主觀惡意,而是學(xué)習(xí)過程和生成機(jī)制的副產(chǎn)品。
歸根結(jié)底,AI模型并沒有真實世界的直接體驗,其知識和能力主要來源于訓(xùn)練數(shù)據(jù)。如果訓(xùn)練數(shù)據(jù)本身存在局限性,例如數(shù)據(jù)不準(zhǔn)確、不完整、過時、帶有偏見,或者某些領(lǐng)域的知識覆蓋不足,那么AI模型在學(xué)習(xí)過程中就可能吸收這些缺陷,并在生成內(nèi)容時表現(xiàn)出來,導(dǎo)致幻覺的產(chǎn)生。因此可以說,互聯(lián)網(wǎng)上良莠不齊的信息源在某種程度上加劇了AI的錯誤率,自媒體為商業(yè)利益制造的虛假內(nèi)容、歷史記錄的多版本等,都成為AI模型的“事實”陷阱,形成“垃圾進(jìn)、垃圾出”的惡性循環(huán)。當(dāng)AI系統(tǒng)“一本正經(jīng)地胡說八道”時,其所提供的錯誤事實、虛構(gòu)的細(xì)節(jié)或不準(zhǔn)確的建議,很容易對缺乏相關(guān)領(lǐng)域知識的用戶產(chǎn)生誤導(dǎo)。這時,即使用戶本身并沒有造謠的意圖,也很有可能在不加求證的狀態(tài)下“迷信”AI,出于恐慌心理大范圍轉(zhuǎn)發(fā)、傳播虛假內(nèi)容,誤導(dǎo)公眾輿論,擾亂信息秩序。
(二)監(jiān)管困境:責(zé)任主體認(rèn)定缺乏明確標(biāo)準(zhǔn)
目前,現(xiàn)行法律體系在應(yīng)對AI謠言時表現(xiàn)出顯著的滯后性,難以有效匹配AI謠言問題的復(fù)雜特性與演變態(tài)勢。其中,責(zé)任主體認(rèn)定的模糊性構(gòu)成了突出的監(jiān)管障礙。AI謠言的生成與傳播涉及多方主體,涵蓋模型開發(fā)者、內(nèi)容使用者、數(shù)據(jù)提供者以及平臺運(yùn)營者等,主體間關(guān)系錯綜復(fù)雜,使得責(zé)任認(rèn)定在客觀上困難重重。
對于AI模型開發(fā)者而言,其責(zé)任范圍存在爭議:若模型因算法缺陷或數(shù)據(jù)污染問題,導(dǎo)致容易生成虛假信息引發(fā)謠言,開發(fā)者是否需承擔(dān)連帶責(zé)任?由于目前算法安全審查義務(wù)仍然缺乏量化標(biāo)準(zhǔn),開發(fā)者常以“技術(shù)中立”抗辯,模糊自身所應(yīng)該承擔(dān)的責(zé)任;對于AI使用者,諸如江西南昌某MCN機(jī)構(gòu)負(fù)責(zé)人王某某這類主體,其利用AI批量生成謠言的行為雖然具有明顯的主觀惡意,但現(xiàn)行法律對“利用AI技術(shù)造謠”的行為定性仍缺乏細(xì)化標(biāo)準(zhǔn),難以與傳統(tǒng)人工造謠的責(zé)任進(jìn)行區(qū)分規(guī)制,更遑論難以界定主觀惡意的謠言問題;對于平臺運(yùn)營者,其審核義務(wù)的邊界也不夠明確。
當(dāng)AI生成的跨模態(tài)謠言以高度逼真的形態(tài)傳播時,平臺是否需投入額外技術(shù)資源進(jìn)行事前篩查?如果未能及時發(fā)現(xiàn),其不作為的責(zé)任程度又該如何界定?這種主體間責(zé)任的交叉與空白導(dǎo)致AI謠言引發(fā)危害后往往會陷入“誰都有責(zé)任,誰都難追責(zé)”的困境,嚴(yán)重制約了治理效能。
(三)認(rèn)知困境:技術(shù)主義思潮下的“信任讓渡”
技術(shù)主義將科學(xué)技術(shù)視為社會發(fā)展的決定性力量,強(qiáng)調(diào)通過技術(shù)手段實現(xiàn)對世界的控制和改造,以專家系統(tǒng)與科學(xué)管理替代傳統(tǒng)社會運(yùn)行機(jī)制,常常與工具理性至上與非人本傾向相伴而生。隨著大數(shù)據(jù)、人工智能、互聯(lián)網(wǎng)等信息技術(shù)的發(fā)展,技術(shù)主義思潮愈演愈烈。人們普遍相信,技術(shù)能夠解決一切問題,帶來無限的進(jìn)步和發(fā)展。在這一思潮影響下,公眾往往會將AI生成的內(nèi)容賦予“客觀中立”“精準(zhǔn)無誤”的天然預(yù)設(shè),做出不自覺的“信任讓渡”——即主動放棄對信息真實性的自主核驗權(quán),將判斷權(quán)完全交予技術(shù)系統(tǒng),認(rèn)為“AI說的就是對的”。
正是在這種不自覺的信任讓渡,使得AI謠言的傳播尤為頑固。許多人在獲取AI相關(guān)內(nèi)容時,往往只看到其表面的邏輯性和形式上的完美,而忽略了技術(shù)本身可能存在的缺陷,如數(shù)據(jù)偏差、算法漏洞、AI幻覺等,也就更容易去接受、轉(zhuǎn)發(fā)甚至主動擴(kuò)散謠言信息,成為AI謠言傳播的“無意識幫手”。與此同時,這種因技術(shù)主義而產(chǎn)生的集體信任,對現(xiàn)有的謠言治理機(jī)制構(gòu)成了嚴(yán)峻挑戰(zhàn)。傳統(tǒng)謠言治理往往依靠公眾的媒介素養(yǎng)和信息辨別能力進(jìn)行矯正,但在對AI無條件信任的背景下,就算相關(guān)治理機(jī)構(gòu)積極辟謠或出臺監(jiān)管措施,也容易陷入治理的“滯后”與“被動”,難以根絕謠言源頭。
三、AI謠言的應(yīng)對策略
自2025年4月以來,中央網(wǎng)信辦開展“清朗·整治AI技術(shù)濫用”專項行動,聚焦AI換臉擬聲侵犯公眾權(quán)益、AI內(nèi)容標(biāo)識缺失誤導(dǎo)公眾等AI技術(shù)濫用亂象,累計處置違規(guī)小程序、應(yīng)用程序、智能體等AI產(chǎn)品3500余款,清理違法違規(guī)信息96萬余條,處置賬號3700余個,各項工作取得積極進(jìn)展。英國法學(xué)家科林·斯科特指出,一個有效的規(guī)制治理體系應(yīng)包含制定規(guī)則、建立規(guī)則運(yùn)行的反饋機(jī)制,以及對違反規(guī)則行為的監(jiān)督機(jī)制??梢?,治理利用AI生成內(nèi)容造謠,事后查處的治理只是其中一環(huán),更為關(guān)鍵的是要著力構(gòu)建起從生成到傳播再到接收的全鏈條治理機(jī)制。
(一)生成源頭管控:加固技術(shù)安全,明確法律責(zé)任
在AI謠言治理的全流程體系中,源頭治理無疑是至關(guān)重要的第一環(huán)節(jié)。面對AI模型強(qiáng)大的內(nèi)容生成與偽造能力,應(yīng)當(dāng)在技術(shù)層面全面加固模型安全防護(hù)體系。
首先,要建立貫穿模型開發(fā)、訓(xùn)練、上線、運(yùn)維各環(huán)節(jié)的安全規(guī)范和準(zhǔn)入門檻,對具備大規(guī)模生成能力的AI工具實行嚴(yán)格的分級備案和評估,形成開發(fā)者、部署者、運(yùn)營者分層管理、責(zé)任明晰的技術(shù)生態(tài)。技術(shù)層面還應(yīng)鼓勵開發(fā)更加智能和高效的內(nèi)容水印、數(shù)據(jù)追溯、生成內(nèi)容標(biāo)簽等溯源體系,在每一個被AI生成的文本、圖片、音視頻內(nèi)容中埋下可供核查的技術(shù)痕跡,以便于事后回溯內(nèi)容源頭,迅速識別和制止惡意造謠。在美國大選期間,部分州針對Deepfake深度偽造技術(shù)引發(fā)的謠言問題做出了政策性變動。如制定法律,要求在政治競選活動中對于AI生成的虛假競選信息,必須明確標(biāo)識,以防止選民受到誤導(dǎo);對于故意傳播深度偽造虛假信息以影響選舉結(jié)果的行為,制定了高額罰款和刑事處罰等嚴(yán)厲的懲罰措施。
其次,數(shù)據(jù)治理是源頭治理中的核心一環(huán),訓(xùn)練數(shù)據(jù)的合法合規(guī)、去污去噪是防止AI模型“帶毒輸出”的基礎(chǔ)。數(shù)據(jù)供給方、標(biāo)注方、模型方應(yīng)落實相應(yīng)的數(shù)據(jù)清洗、敏感內(nèi)容過濾義務(wù),有效削減虛假、不良樣本進(jìn)入訓(xùn)練集的可能。
再次,法律責(zé)任的明確劃分同樣不可或缺?,F(xiàn)有法律體系針對AI生成內(nèi)容的制造、傳播與平臺監(jiān)管責(zé)任多有空白,對AI謠言事件的責(zé)任邊界往往界定不清。必須加速完善相關(guān)立法,對模型開發(fā)者、服務(wù)運(yùn)營商、內(nèi)容發(fā)布者等各方主體設(shè)定明確的審核與合規(guī)義務(wù),落實“誰開發(fā)、誰負(fù)責(zé)”“誰發(fā)布、誰擔(dān)責(zé)”的原則。對因管理不善、審核失職導(dǎo)致謠言傳播的技術(shù)企業(yè)、平臺方依法追責(zé),并建立高效、便捷的權(quán)益救濟(jì)和司法響應(yīng)渠道,為受害者提供明確的法律支持,營造有力的法律威懾。
只有通過強(qiáng)化技術(shù)本身的安全屬性、優(yōu)化數(shù)據(jù)治理生態(tài)、健全法律責(zé)任體系,才能在源頭上有效遏制AI謠言的制造與流通,為后續(xù)治理環(huán)節(jié)打下堅實基礎(chǔ)。
(二)傳播過程阻斷:完善平臺審核,強(qiáng)化監(jiān)管協(xié)作
如果說源頭治理是“堵水源”,那么傳播過程阻斷就是“截洪流”。在當(dāng)下的網(wǎng)絡(luò)生態(tài)中,AI謠言極易通過自媒體、短視頻平臺、即時通訊工具等渠道裂變式爆發(fā),不斷放大謠言危害。要遏制此類信息在傳播鏈路上的蔓延,首先需要平臺方承擔(dān)起主體責(zé)任。各大內(nèi)容平臺應(yīng)升級現(xiàn)有的信息審核體系,借助AI技術(shù)治理AI謠言,利用實時的智能內(nèi)容識別和過濾系統(tǒng),對文本、圖像、音視頻進(jìn)行自動標(biāo)注和風(fēng)險預(yù)警,在謠言傳播初期實現(xiàn)技術(shù)級別的高效攔截。同時,應(yīng)建立動態(tài)詞庫和多模態(tài)內(nèi)容分析機(jī)制,對高風(fēng)險話題、熱門事件等重點領(lǐng)域進(jìn)行特殊防控,避免AI謠言借熱點事件發(fā)酵。此外,平臺還應(yīng)完善人工復(fù)核機(jī)制,引入專家團(tuán)隊對高敏感內(nèi)容進(jìn)行層級審核,彌補(bǔ)AI算法誤判、漏判的不足,形成“技術(shù)初篩+人工復(fù)核”的協(xié)同應(yīng)對。
可以說,監(jiān)管與治理主體間的協(xié)作同樣決定了阻斷效果。面對AI謠言的泛化趨勢,單一平臺、部門的孤立治理已難以應(yīng)對復(fù)雜情勢,需要搭建起多元協(xié)同的社會治理網(wǎng)絡(luò):政府相關(guān)部門應(yīng)出臺指導(dǎo)性政策,設(shè)立全鏈路監(jiān)測、信息溯源與聯(lián)動處理機(jī)制;權(quán)威媒體與辟謠中心要主動入場,形成權(quán)威發(fā)布、應(yīng)急響應(yīng)、線索通報的閉環(huán);平臺之間數(shù)據(jù)互通與案例共享,實現(xiàn)謠言情報的實時聯(lián)動、違規(guī)賬號的協(xié)同處置、典型事件的公開曝光;有效暢通用戶舉報、投訴、線索投稿渠道,建立激勵機(jī)制,形成共治合力??梢?,傳播過程阻斷環(huán)節(jié),既要依賴平臺自律和智能技術(shù)的不斷升級,也需政府引導(dǎo)、多方聯(lián)動和公眾參與,織密謠言攔截的“防護(hù)網(wǎng)”,為守護(hù)清朗的信息環(huán)境筑起堅實屏障。
(三)受眾認(rèn)知轉(zhuǎn)變:優(yōu)化辟謠機(jī)制,提升媒介素養(yǎng)
AI謠言的頑固性和可持續(xù)危害,很大程度上依賴于公眾對AI生成內(nèi)容的認(rèn)知局限和媒介素養(yǎng)短板。面對人工智能技術(shù)賦予的“以假亂真”手段,傳統(tǒng)的被動辟謠模式在許多情況下鞭長莫及,唯有推動全社會認(rèn)知結(jié)構(gòu)的升級,才能從根本上切斷AI謠言的生存土壤。
首先,權(quán)威、系統(tǒng)和精細(xì)化的辟謠機(jī)制不可或缺。應(yīng)構(gòu)建集國家權(quán)威、主流媒體、第三方核查機(jī)構(gòu)、專業(yè)平臺于一體的多層次、聯(lián)動式辟謠網(wǎng)絡(luò),實現(xiàn)“權(quán)威鑒定—實時發(fā)布—多平臺推送—全網(wǎng)覆蓋”的高效格局。需要注意的是,辟謠不只是及時回應(yīng),更要重視科學(xué)揭示AI造假的技術(shù)原理、造謠手法、識破要點,通過案例演示、互動問答、可視化呈現(xiàn),將技術(shù)性闡釋轉(zhuǎn)化為公眾易于理解和吸收的“知識普及包”,進(jìn)而消解技術(shù)主義下公眾對于AI的盲目信任。
其次,提升媒介素養(yǎng)是受眾治理的治本之道。各級教育體系應(yīng)將AI與新媒體素養(yǎng)教育納入課程,從信息獲取、源頭甄別、批判思維、風(fēng)險防范等維度進(jìn)行全鏈條能力培養(yǎng)。通過專題講座、模擬訓(xùn)練和社會案例分析,增強(qiáng)公眾對AI謠言的敏銳覺察和防御技能。平臺應(yīng)定期發(fā)布典型AI謠言、科普技術(shù)破解方法,并對各類用戶定向推送信息鑒別指導(dǎo),形成與用戶日常信息消費(fèi)相結(jié)合的防謠能力訓(xùn)練場景。
最后,需要關(guān)注群體心理層面的風(fēng)險管理。AI謠言往往迎合社會情緒、激發(fā)群體共鳴,極易放大“后真相”與“信息繭房”效應(yīng)。通過提升公眾的理性自省意識、鼓勵前置求證和辯證討論氛圍,可以預(yù)防情緒型、跟風(fēng)型的謠言擴(kuò)散。輿論引導(dǎo)、政策倡導(dǎo)和獎懲機(jī)制的引入,也有助于培育去神化、去技術(shù)迷信的社會環(huán)境,促成全民“識謠、辨謠、拒謠”的良好認(rèn)知生態(tài)。最終,實現(xiàn)觀念轉(zhuǎn)變和素養(yǎng)提升,既能有效避免AI謠言的廣泛侵蝕,更為信息社會的健康發(fā)展注入強(qiáng)大內(nèi)生動力。
在人工智能時代,技術(shù)不僅以其高效與便利塑造著人類社會的方方面面,更深刻影響著我們認(rèn)知世界、判斷真?zhèn)蔚姆绞?。AI驅(qū)動的內(nèi)容生成突破了以往信息生產(chǎn)、驗證與傳播的邊界,將人類帶入真假難辨的全新境域。面對AI生成謠言的治理難題,僅僅停留在事后被動查處是遠(yuǎn)遠(yuǎn)不夠的,關(guān)鍵在于構(gòu)建起涵蓋生成方、傳播方與接收方的全鏈條、全流程治理機(jī)制。唯有各個環(huán)節(jié)共同發(fā)力、多重措施同步落地,才能在人工智能不斷塑造社會結(jié)構(gòu)與認(rèn)知方式的時代,守護(hù)事實與真相的底線,讓技術(shù)回歸其本初的人文關(guān)懷與啟蒙功能,成為照亮世界、服務(wù)人類的規(guī)范性力量。
關(guān)鍵詞:
凡注有"環(huán)球傳媒網(wǎng)"或電頭為"環(huán)球傳媒網(wǎng)"的稿件,均為環(huán)球傳媒網(wǎng)獨家版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載或鏡像;授權(quán)轉(zhuǎn)載必須注明來源為"環(huán)球傳媒網(wǎng)",并保留"環(huán)球傳媒網(wǎng)"的電頭。
資訊
- 港股中資券商股午后拉升,中州證券漲超12% 焦點信息
- 又一加密礦商轉(zhuǎn)型AI 獲谷歌收購股份后TeraWulf(WULF.US)漲超26%
- 看點:現(xiàn)象級音綜《歌手2025》落幕了 但話題熱度仍在繼續(xù)
- UNSW新研究: TOPCon太陽電池的"隱形殺手"
- 中國二冶一項目榮獲內(nèi)蒙古自治區(qū)“草原杯”工程質(zhì)量獎|每日熱門
- 家電以舊換新帶動空調(diào)熱銷 省電、綠色型號更受寵 每日時訊
- 最新快訊!比亞迪自研滑板車來了 方程豹鈦7首發(fā)首搭
- 賽輪集團(tuán):以綠色創(chuàng)新引領(lǐng)可持續(xù)發(fā)展 打造輪胎行業(yè)ESG實踐標(biāo)桿
- 焦點報道:央行將開展7000億元買斷式逆回購操作 8月流動性投放力度有望持續(xù)加碼
- 防汛關(guān)鍵期,如何安全避險?
焦點
- Truist上調(diào)塔吉特目標(biāo)價至107美元
- 當(dāng)前熱訊:8月14日資產(chǎn)處置項目推薦:貴州安順市約287.7噸大梁、拉桿、立柱等廢舊鋼材拍賣
- 熱點評!中國海水產(chǎn)品產(chǎn)量連續(xù)多年全球第一——看看咱超700億斤的“海產(chǎn)庫”
- 五礦新能:融資凈償還67.83萬元,融資余額3.55億元(08-13)
- 從一臺機(jī)器人看制造業(yè)向新而行 當(dāng)前信息
- 中外青年以文化為橋增進(jìn)了解-每日動態(tài)
- 朗姿股份:申請合計1.1億元流動資金借款
- 博鰲健康論壇北京會議呼吁聚焦乳腺癌復(fù)發(fā)風(fēng)險
- “大成敦煌——敦煌文化藝術(shù)大展”在深圳開展 每日時訊
- 入股不虧是什么意思?入股不虧是什么梗?