從翻譯機器人到深度偽造檢測儀,人工智能工具正在改變主管部門就緊急情況向公眾發出警報、提供信息及安撫民眾的方式。然而,若這些技術落入不法分子之手,或在事實尚未核實前便投入使用,就可能帶來風險。在這個充斥著合成內容的世界里,感知可能蓋過現實。這一點在應急溝通中尤為關鍵 —— 速度固然重要,信任同樣不可或缺。
2025年6月,國際原子能機構召集了一批核與輻射應急公共溝通領域的頂尖專家,探討人工智能如何改變溝通規則。其目的是通過循證指導、新研究及實用能力建設,助力各國適應這一變化。
“隨著人工智能重塑信息格局,我們希望為各國提供有效的指導,將它們與頂尖專家聯系起來,助力它們在這個快速變化、不斷演進的領域中前行。”原子能機構事件和應急中心外宣官員Nayana Jayarajan表示。
防止人工智能在危機中的濫用
如今,深度偽造技術制造的恐慌可能遠超真實的應急警報。2024年颶風“海倫妮”襲擊期間,美國社交媒體被人工智能生成的圖像淹沒,其中一張是一名憂心如焚的小女孩在救援船上緊緊抱著一只小狗。盡管這完全是合成的圖像,其傳播速度卻遠超過官方通報。此類偽造的視覺內容可能會分散稀缺的資源、侵蝕公眾對政府努力的信任,并強化具有操縱性的敘事。
“生成式人工智能帶來的首要且最緊迫的挑戰,”謝菲爾德大學計算機科學教授Kalina Bontcheva表示,“是改進模型的保障,防止其被濫用于大規模制造具有說服力、能引發對立的虛假信息 —— 無論是免費還是以極低成本進行。”
“由于現代傳播中省去了中間環節,公眾獲取信息的方式已發生巨大變化。”德國聯邦輻射防護局局長辦公室主任Achim Neuhauser表示。
人工智能驅動的錯誤信息不僅扭曲敘事,還會挑戰信息的合法性。
讓人工智能在危機溝通中更具成效
“危機改變了組織與公眾之間的關系動態。”北卡羅來納州立大學副教授Alice Cheng表示,“信任和滿意度可能會暫時消失,公眾會根據感知到的合法性和響應能力重新評價這些關系。”
Cheng對英國660余人進行了調查,以了解應急期間人們對人工智能產生信任的驅動因素以及這種信任對行為的影響。研究首先向參與者呈現了一種真實場景:一家大公司在災難中運用預測性警報、撤離指引等人工智能工具。隨后,參與者回答了有關該公司的道德水準、人工智能的能力、社會影響力以及自身信任程度和行為意圖等問題。結果顯示,人們對人工智能的信任程度取決于他們對公司道德水準的認知、對人工智能能力的判斷,以及他們認為他人期望自己持有的看法。
對人工智能的信任顯著提升了人們對公司的信任度,進而促使人們進行口碑宣傳,并愿意在應急期間為公司提供支持。這種宣傳直接增強了人們伸出援手的意愿。總體而言,研究發現,道德水準、人工智能能力和社會規范共同作用,構建起一種信任,這種信任通過口碑傳播,能增強人們在危機中開展合作的意愿。
在這一不斷變化的領域中,溝通者正在尋求助力——而人工智能若運用得當,便能提供切實的支持。“這些技術能以富有意義的方式增強危機溝通。”原子能機構新聞和宣傳辦公室主任Sophie Boutaud de la Combe表示,“例如,實時數字威脅圖譜和情緒分析,能讓組織追蹤公眾在不同平臺上對危機信息的情感反應。這種反饋有助于制定更具響應力和同理心的溝通策略,幫助主管部門在高風險情況中調整溝通的語氣和時機。”
人工監督仍然不可或缺
根據Neuhauser的說法,“因某一事件而受到創傷的人需要真實的人來與之互動——無論是通過電話還是面對面。”他表示,關于對人工智能和聊天機器人看法的研究表明,當這項技術采用人類的對話習慣時,人們便會接受它。
Cheng的研究強調,在將人工智能融入應急溝通系統時,需要有強大的道德和技術保障。盡管這些工具能增強溝通有效性,但隱私問題嚴重影響公眾信任。清晰闡釋技術工作原理、確保數據使用透明度以及建立明確的選擇加入機制,對于維持公眾的信心和參與都至關重要。
Cheng認為溝通者的角色正在發生轉變。“在一個人工智能輔助日益增多的溝通環境中,人類的判斷力并非變得無關緊要,而是更具戰略意義。溝通者的角色正從信息創作轉向監督、篩選及信任調解。”她表示。
Boutaud de la Combe強調了在國家應急風險評估中考慮錯誤信息的重要性,并認為應急響應組織應將快速公眾溝通規程制度化,培訓指定發言人,以及預先部署多語言公共信息資源。
在制定人工智能應用政策時,重點需要放在自動化與問責制之間的平衡上。“在應急中,人工智能不會取代人類判斷,但它會重塑我們檢測、應對和模擬危機的方式。”駐迪拜危機溝通顧問Philippe Borremans表示,“在一個充斥著虛假信息的環境中,它既是放大器,也是過濾器。挑戰在于確保算法服務于清晰傳達信息,而非造成混亂,同時讓人類的聲音保持主導地位。”
而這種聲音——合乎道德、響應敏捷、立足現實——或許是所有資源中最具戰略性的一項。