![]()
作者:顧正龍(華語智庫高級研究員、新華社原高級記者)
自2026年2月28日美以伊朗戰爭爆發以來,AI (人工智能)技術在產生和傳遞假信息,是供政治和軍事需要的一個活生生的例子。這些假信息被用來虛構敘事,分散輿論、污染公共資訊來源,并阻礙在混亂時期評估情況的能力,因為這些信息內容帶來的壓力使接收者難以理清在不確定中進行驗證,這被認為是烏克蘭和加沙戰爭以來同樣角色的延伸。
![]()
瓦解宣傳結構
阿聯酋《FUTURE CENTER UAE 》智庫網站4月2日刊載文章指出,戰爭中的AI技術不再只是助長誤導性內容的制作手段,更是重新設計事件本身,使其更具吸引力和影響力的工具。如果攻擊確實發生,須重新定義應該如何看待這場戰爭。它依照美學規則重現現實,提供更明顯、清晰且完整的體驗,產生一個勝利敘事,并以對某位被擊敗者的明確勝利作為頂端,并在一種危機混亂狀態中加強,動員與情感沖動的價值優先于批評與心理評估。
套用伊朗當前戰爭狀況,并反駁由AI技術制作并由國際媒體如德國之聲、法新社、美聯社及《紐約時報》等資訊審核服務監控的假片段,AI生成且針對性的宣傳影片所提供的視覺綜合,可以透過聚焦于模擬現實而非產生血腥表情的片段來駁斥,具體如下:
1、全視野效果:人工片段包含完美的捕捉角度,清晰呈現碰撞瞬間,甚至追蹤巨大爆炸及其破壞效果,這些效果清晰、巨大,充滿碎片與濃煙。這并非透過真實拍攝的影像達成,這些影像通常來自遠距離,由普通人在避難所或安全空間內拍攝,火箭彈呈現為光點,爆炸則是不確定的閃爍。這透過刻意營造的氛圍來提升戲劇性和視覺刺激感,最大化危險感,同時提升可信度,因為這些片段置于夜晚氛圍中,天空被爆炸的色彩映照,煙霧繚繞,背景昏暗,或讓人覺得像是衛星、夜間或熱成像攝影機捕捉到的畫面。
2、選擇具有強烈象征意義的地點:如選擇知名地標、軍事區、國際機場等,這些容易被轟炸和縱火的地點,并非荒謬,而是刻意選擇更具意義且具象征意義的語言解讀,因為這些地點被摧毀時的視覺呈現不僅意味著毀滅,也可能暗示聲望下降及主權侵犯。
3、情感動員:生成內容的視覺結構不僅限于轟炸與爆炸場景,而且可以延伸至更復雜的層次,產生集體情感,喚起同仇敵愾的氣氛,例如偽造名人在戰爭中參與支持一方對抗另一方的政治活動的出版物。這還伴隨著士兵哭泣或心理崩潰的影片與影像生成,喚起哭泣作為權力失衡的視覺象征,也是對手失敗的象征,心理崩潰轉化為失敗應得的象征證據,內容重塑了戰爭的情感感知,不僅呈現事件本身,也引導人們如何感受戰爭。
4、軍事準備的描繪:除了巨大爆炸場景及對手心理崩潰的表現外,“勝利”敘事的語義建構透過視覺化的戰備與軍事優勢呈現完成,這些畫面中出現了巨型飛彈與防御碉堡,這些因戰略目的難以實際展示。這些人工產生的影片素材用于傳達與威懾或戰備相關的訊息,無論是面向內部或外部觀眾,皆在心理戰的背景下制作。
5、混合構造:部分生成素材并非完全是假,而是故意混淆真偽,將真實片段如火災放大,或傳送其他情境影像,例如攻擊時展示洪水影像,或將飛行模擬游戲的影片當作真實突襲。這種在影片中結合真實與誤導元素的手法,讓影片更具真實感,也更難被反駁。
6、語言符號:此視覺結構由伴隨文本補充,文本并非解釋事件本身,而是情感上重新詮釋事件。
錯誤資訊的危險后果
在危機與戰爭時期的混亂中,接收者難以分辨真偽。當審計報告指控其偏袒一方而非另一方,AI技術使用假訊息所帶來的危險后果不僅在戰爭或危機層面顯現,也體現在建立用戶與資訊環境健康關系、重塑真理概念的層面。問題不僅在于假內容的存在,更在于分辨真假的能力崩潰。
生成式AI技術也開啟了前所未有的可能性,能在視覺內容中按時間順序重新排列事件,使假場景或改動場景能呈現為與危機或沖突相關的特定時刻,這種操控不僅限于創造不真實場景,還延伸至改變事件序列的感覺,增強演員控制公眾印象與引導情緒的能力。
這些危險后果在戰爭時期更加嚴重,因為雙方采取相互猜忌的策略,雙方隱瞞損失、放大對方損失,造成資訊真空與不確定環境,促使生成影片的傳播非謊言,而是潛在且無法驗證的解釋。人工智能因此成為填補這個空缺的工具,使用者在沖突時期的壓力下獲得這種空缺,降低了驗證能力,使他們更可能相信所產生的內容,甚至在內容與其支持一致時采納,因為接收者往往透過接觸與自己信念一致的內容來確認自己的決定,這降低了他因情緒偏見而心理反駁的能力,甚至指責反對者有偏見。
雖然伊朗常被指控是這些影片的幕后黑手,并組織協調的運動在社群媒體上散布,但美國卻利用將真實影像與電影、電玩場景混合的宣傳材料,來美化美國軍事力量,正如白宮發言人所描述,這種使用并非假象,而是作為展示實力有效手段。此意圖是為生成式人工智能技術的宣傳使用提供合法性,并非使其成為非法或媒體及政治假訊息工具,而是成為官方政治話語的一部分。
這些與資訊通訊與媒體環境相關的風險,并不能消除在危機與戰爭期間,人工產生假內容對官方機構信任的戰略風險,這些風險透過謠言混淆國內,影響市場,并在污染的資訊環境中削弱決策者的能力。
策略轉變
這些做法不能被視為短暫現象,但它們清楚顯示溝通策略的轉變,尤其是在戰爭與危機時期,AI技術不僅是沖突武器庫中的新工具,而是重新定義其核心圈子,將其從戰場轉向公眾認知,并改變那些不一定與實際發生情況相符的公共形式。這屬于一場意義管理戰爭的框架內,不僅依照傳統的媒體消除機制,也涉及建構一個無源替代現實的技術,在視覺不再足以證明信念、看到某物不再是證據、影像本身可能是錯誤資訊工具的時代,重復著相同的真理。
由于經濟、科技與發展的動機推動生成內容的必然性,并根據最大且最具影響力的國際機構與行動者就業先例,以及在最具影響力的國際現實與危機中展現使用證據,產生的材料將不再是可被監控與反駁的獨立文本,而是將逐漸整合進資訊環境中,無論是在戰爭、災難或政治危機的脈絡中,使所有內容(包括真實內容)都能重新配置,成為討論、指責與懷疑的空間,并依交織因素展開這并非沒有吸引力與指引的動機,這使得資訊領域陷入缺乏參考且容易被持續解讀的流動性。
如何應對
這種轉變反映在宣傳與危機管理策略的重新表述上,行動者不再試圖說服大眾接受單一連貫敘事,而是傾向于以多重敘事淹沒公共領域,甚至可能相互矛盾,使目標不再是說服,而是混亂與分散注意力,在一個反駁價值因誤導性內容發布后即時獲得的即時利益而降低,數位社會接收并促進其流通、擴散及影如何響力放大,即使被否認并否認它,促使制作人繼續使用它。
面對沖突期間認知管理的這些危險發展,推廣并鞏固“知識安全”概念變得越來越重要,英國“艾倫·圖靈研究所”于2020年報告中討論此概念,作為一個總稱,聚焦于社會生產、分發、評估及吸收資訊的過程,以及限制資訊取得或削弱評估資訊來源有效性或可靠性的威脅,并帶來影響社會做出明智且及時決策,并協調應對危機行動的能力。
這需要制定集體知識管理策略,政府、媒體機構與學術組織攜手合作,發展機制以強化社會判斷資訊可信度的能力。這透過組織與結構性架構來實現,包括發展知識意識、提升教育、媒體意識與批判性思考,以及開發技術與技術工具,以透明且可靠的方式驗證與評估內容來源,不僅限于數位內容稽核平臺及其技能,還透過整合策略管理公共認知,平衡言論自由與打擊錯誤資訊,并致力于恢復整體資訊系統的信任。這可能是對抗生成式人工智在能戰爭與危機中影響的最重要策略之一。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.