Desde los bots de traducción a los detectores de ultrafalsos, las herramientas de inteligencia artificial (IA) están transformando la forma en que las autoridades alertan, informan y dan seguridad a la población en situaciones de emergencia. No obstante, estas tecnologías pueden ser arriesgadas si caen en las manos equivocadas o si se utilizan antes de que se hayan verificado los hechos. En un mundo saturado de contenido sintético, la percepción puede eclipsar la realidad. Esto es especialmente vital en las comunicaciones de emergencias, cuando la velocidad es importante, pero también lo es la confianza.
En junio de 2025, el OIEA convocó a un grupo de destacados expertos en comunicación pública durante emergencias nucleares y radiológicas para examinar la manera en que la IA está cambiando las reglas de intervención. El objetivo era ayudar a los países a adaptarse mediante orientaciones basadas en datos empíricos, nuevas investigaciones y creación de capacidad práctica.
“A medida que la IA transforma el panorama informativo, nos proponemos apoyar a los países con orientaciones eficaces, ponerlos en contacto con destacados expertos y ayudarles a desenvolverse en este campo de evolución rápida y constante”, dice Nayana Jayarajan, Oficial de Divulgación del Centro de Respuesta a Incidentes y Emergencias del OIEA.
Prevención del uso indebido de la IA en situaciones de crisis
En la actualidad, los ultrafalsos pueden generar más pánico que una alerta de emergencia real. Durante el huracán Helene en 2024, las redes sociales de los Estados Unidos de América estaban inundadas de imágenes generadas por IA, entre ellas la de una ni?a angustiada abrazando a un cachorro en un bote de rescate. La imagen, aun siendo totalmente artificial, se difundió más rápido que las actualizaciones oficiales. Estas imágenes ficticias pueden desviar los escasos recursos, erosionar la confianza del público en la labor del gobierno y reforzar mensajes manipuladores.
“El primer desafío y el más apremiante que plantea la IA generativa —afirma Kalina Bontcheva, Profesora de Informática de la Universidad de Sheffield— es mejorar las salvaguardias de los modelos para evitar su uso indebido en la producción de desinformación persuasiva y polarizante a escala, sea gratis o a muy bajo costo”.
“Dado que en la comunicación moderna queda eliminado el intermediario, ha habido un cambio radical en el acceso del público a la información”, dice Achim Neuhauser, Jefe de la Oficina de la Presidencia de la Oficina Federal de Protección Radiológica de Alemania.
La información errónea basada en la IA no solo distorsiona los relatos, sino que también cuestiona la legitimidad.
Mayor eficacia de la IA en las comunicaciones durante una crisis
“Las crisis alteran la dinámica de las relaciones entre las organizaciones y el público —afirma Alice Cheng, Profesora Titular de la Universidad Estatal de Carolina del Norte—. La confianza y la satisfacción pueden desaparecer temporalmente, y es posible que el público reevalúe estas relaciones en función de la legitimidad y la capacidad de respuesta que perciba”.
La Sra. Cheng encuestó a más de 660 personas en el Reino Unido para entender qué inspira confianza en la IA durante las situaciones de emergencia y cómo repercute esa confianza en el comportamiento. Se planteó a los participantes un escenario realista en el que una gran empresa utilizaba herramientas de IA (como alertas predictivas y orientaciones de evacuación) durante un desastre, tras lo cual, estos respondieron a preguntas acerca de la ética de la empresa, las capacidades de la IA, las influencias sociales y sus propios niveles de confianza e intenciones. Los resultados revelaron que la confianza de las personas en la IA obedecía a la percepción que estas tenían de la ética de la empresa, la capacidad que atribuían a la IA y sus expectativas respecto a lo que otras personas esperaban que pensaran.
La confianza en la IA aumentó notablemente la confianza en la empresa, lo que a su vez alentó a las personas a difundir recomendaciones de boca en boca y a mostrarse dispuestas a apoyar a la empresa en situaciones de emergencia. Las recomendaciones aumentaron directamente la voluntad de ayudar de las personas. En general, el estudio concluyó que la ética, la competencia en materia de IA y las normas sociales actúan en conjunto para generar una confianza que se difunde de boca en boca y fortalece la voluntad de las personas de cooperar durante una crisis.
En este entorno cambiante, los comunicadores buscan ayuda, y la IA, bien utilizada, ofrece un apoyo real. “Estas tecnologías pueden mejorar eficazmente la comunicación en situaciones de crisis —afirma Sophie Boutaud de la Combe, Directora de la Oficina de Información al Público y Comunicación del OIEA—. Por ejemplo, gracias al mapeo de amenazas digitales en tiempo real y el análisis de opiniones las organizaciones pueden hacer un seguimiento de la respuesta emocional del público a los mensajes de crisis en las distintas plataformas. Esta respuesta posibilita estrategias de comunicación más receptivas y empáticas, lo que ayuda a las autoridades a adecuar su tono y el momento oportuno en situaciones de alto riesgo”.
Sigue siendo indispensable la supervisión humana
Según el Sr. Neuhauser, “las personas que han resultado traumatizadas por un suceso necesitan interactuar con gente real, ya sea por teléfono o en persona”. Y a?ade que la investigación sobre las percepciones respecto a la IA y los chatbots muestra que las personas aceptan esta tecnología cuando esta utiliza hábitos de conversación humanos.
En la investigación de la Sra. Cheng se destaca la necesidad de contar con sólidas salvaguardias éticas y técnicas cuando se integra la IA en los sistemas de comunicación de emergencias. Aun cuando estas herramientas pueden potenciar la eficacia, las preocupaciones por la privacidad influyen considerablemente en la confianza del público. Para mantener la confianza y el compromiso del público, es esencial poder dar explicaciones accesibles sobre el funcionamiento de la tecnología, ser transparentes en el uso de los datos y establecer mecanismos claros de participación.
La Sra. Cheng considera que el papel del comunicador está evolucionando. “En un entorno de comunicación cada vez más asistido por la IA, el criterio humano no pierde pertinencia, sino que se vuelve más estratégico. El papel del comunicador está dejando de centrarse en la creación de mensajes para pasar a la supervisión, la gestión y la mediación de la confianza”, afirma.
La Sra. Boutaud de la Combe hizo hincapié en la importancia de tener en cuenta la desinformación en las evaluaciones nacionales del riesgo de emergencia, e indicó que las organizaciones de respuesta a emergencias deberían institucionalizar protocolos de comunicación rápida con el público, capacitar a determinados portavoces y contar de antemano con recursos multilingües de información pública.
A la hora de elaborar políticas sobre el uso de la IA, es necesario centrarse en encontrar un equilibrio entre la automatización y la responsabilización. “La IA no sustituirá al criterio humano en las situaciones de emergencia, pero sí transformará la manera en que detectamos y simulamos crisis y en que respondemos a ellas —afirma Philippe Borremans, consultor de comunicación de crisis radicado en Dubái—. En un entorno saturado de desinformación, sirve a la vez de amplificador y de filtro. El desafío es garantizar que los algoritmos contribuyan a la claridad, no a la confusión, y que la voz humana siga siendo el punto de referencia”.
Y esa voz —ética, receptiva y sensata— puede ser el recurso más estratégico de todos.