<dd id="rw0xn"></dd>

  • <label id="rw0xn"></label>

  • <sup id="rw0xn"><strike id="rw0xn"></strike></sup><label id="rw0xn"></label>
      <th id="rw0xn"></th>
    1. <var id="rw0xn"></var>
        1. <table id="rw0xn"></table>

          <sub id="rw0xn"><meter id="rw0xn"></meter></sub>

          Intelligence artificielle, mésinformation et communication en situation d’urgence : transformer le risque en occasion à saisir

          Le simulateur de l’AIEA permet aux pays de s’entra?ner à utiliser efficacement les médias sociaux en cas d’urgence nucléaire ou radiologique, notamment pour lutter contre la mésinformation. (Photo : AIEA)

          Des robots de traduction aux détecteurs de ? deepfakes ? (ou ? hypertrucages ?), les outils d’intelligence artificielle (IA) transforment la manière dont les autorités avertissent, informent et rassurent la population en cas d’urgence. Toutefois, ces technologies peuvent présenter des risques si elles tombent entre de mauvaises mains ou si elles sont déployées avant que les faits n’aient pu être vérifiés. Dans un monde saturé de contenu créé de manière artificielle, la perception peut prendre le pas sur la réalité. C’est un aspect dont il faut absolument tenir compte dans les communications en situation d’urgence, la rapidité étant certes importante, mais la confiance l’étant tout autant.

          En juin 2025, l’AIEA a réuni un groupe d’experts de premier plan sur la communication avec le public dans les situations d’urgence nucléaire ou radiologique, afin d’étudier de quelle fa?on l’IA modifie les règles d’interaction. L’objectif était d’aider les pays à s’adapter grace à des orientations fondées sur des données probantes, à de nouveaux travaux de recherche et à un renforcement de leurs compétences pratiques.

          ? à l’heure où l’IA transforme le paysage de l’information, nous souhaitons épauler les pays en leur donnant des conseils utiles, les mettre en relation avec des experts de renom et les aider à trouver leurs marques dans ce domaine en évolution rapide et constante ?, indique Nayana Jayarajan, responsable de la sensibilisation au Centre des incidents et des urgences de l’AIEA.

          Prévenir l’utilisation abusive de l’IA en contexte de crise

          Aujourd’hui, les hypertrucages peuvent créer plus de panique qu’une véritable alerte d’urgence. Lors de l’ouragan Helene en 2024, les médias sociaux aux états-Unis d’Amérique ont été inondés d’images générées par l’IA, dont celle d’une fillette désemparée serrant contre elle un chiot dans un canot de sauvetage. Bien qu’elle ait été fabriquée de toutes pièces, l’image s’est répandue plus rapidement que les actualités officielles. Des images factices comme celle-ci peuvent entra?ner une mauvaise affectation du peu de ressources disponibles, éroder la confiance du public dans les efforts que déploient les autorités et donner plus de poids aux discours manipulateurs.

          Selon Kalina Bontcheva, professeure d’informatique à l’Université de Sheffield, ? le premier défi posé par l’IA générative – et celui qui est le plus urgent à relever – est d’améliorer les garde-fous des modèles afin d’empêcher que ces derniers ne puissent être utilisés à mauvais escient pour produire de manière massive de fausses informations, à la fois convaincantes et clivantes, et ce gratuitement ou à un co?t dérisoire. ?

          ? L’absence d’intermédiaire dans la communication moderne a radicalement transformé l’accès du public à l’information ?, affirme Achim Neuhauser, chef du Bureau de la présidence de l’Office fédéral allemand de radioprotection.

          La mésinformation alimentée par l’IA ne fait pas que déformer le discours public : elle remet en cause la légitimité.

          Faire de l’IA un outil plus efficace dans la communication de crise

          ? Les crises modifient la dynamique des rapports entre les organisations et le public ?, a estimé Alice Cheng, professeure associée à l’Université d’état de Caroline du Nord. ? La confiance et la satisfaction peuvent s’envoler temporairement et le public peut réévaluer les relations qu’il entretient avec ces organisations en fonction de la perception qu’il a de leur légitimité et de leur réactivité. ?

          Mme Cheng a interrogé plus de 660 personnes au Royaume-Uni pour comprendre ce qui inspire un sentiment de confiance dans l’IA lors de situations d’urgence et comment cette confiance influe sur le comportement. Les participants se sont vu présenter un scénario réaliste dans lequel une grande entreprise emploie des outils d’IA, tels que des alertes prédictives et des consignes d’évacuation, lors d’une catastrophe. Ils ont ensuite répondu à des questions sur l’éthique de l’entreprise, les capacités de l’IA et les influences sociales ainsi que sur leur propre niveau de confiance et leurs intentions. Les résultats ont révélé que la confiance d’une personne dans l’IA dépendait de la manière dont elle percevait l’éthique de l’entreprise et les capacités de l’IA ainsi que de l’idée qu’elle se faisait de la position que les autres s’attendaient à ce qu’elle adopte.

          La confiance dans l’IA a considérablement accru la confiance envers l’entreprise, ce qui a incité les gens à faire part de leur satisfaction autour d’eux, par le bouche-à-oreille, tout en se disant prêts à soutenir l’entreprise en cas de situation d’urgence. Cette promotion de l’entreprise par le bouche-à-oreille a eu un effet direct sur les intentions des gens, qui se sont montrés plus disposés à apporter leur aide. Dans l’ensemble, l’étude a abouti à la conclusion que l’éthique, les capacités des outils d’IA et les normes sociales sont autant de facteurs qui, ensemble, contribuent à instaurer un sentiment de confiance qui se propage par le bouche?à?oreille et renforce la volonté des uns et des autres de coopérer en cas de crise.

          Dans cet environnement en mutation, les professionnels de la communication souhaitent se faire épauler – et l’IA, lorsqu’elle est utilisée à bon escient, est d’un vrai secours. ? Ces technologies peuvent réellement améliorer la communication en temps de crise ?, déclare Sophie Boutaud de la Combe, directrice du Bureau de l’information et de la communication de l’AIEA. ? Par exemple, la cartographie des menaces numériques en temps réel et l’analyse d’opinion permettent aux organisations de suivre la manière dont le public réagit sur le plan émotionnel aux communications de crise sur les différentes plateformes. Ce retour d’information permet de mettre en place des stratégies de communication plus réactives et davantage fondées sur l’empathie, ce qui aide les autorités à adapter le ton de leurs messages et le moment où elles les transmettent en cas de situations présentant des enjeux importants. ?

          L’être humain doit impérativement rester aux commandes

          Selon M. Neuhauser, ? quelqu’un qui sort traumatisé d’un événement a besoin de parler avec une vraie personne, que ce soit par téléphone ou en face à face. ? Il indique à cet égard que les recherches sur les perceptions entourant l’IA et les robots conversationnels montrent que les gens acceptent cette technologie lorsqu’elle s’inspire des conversations humaines.

          Il ressort des recherches de Mme Cheng qu’il faut établir des garde-fous éthiques et techniques solides lorsqu’on intègre l’IA aux systèmes de communication d’urgence. S’il est vrai que ces outils peuvent permettre de gagner en efficacité, les préoccupations en matière de respect de la vie privée pèsent lourdement sur la confiance du public. Il importe non seulement d’expliquer le fonctionnement de la technologie au moyen d’informations facilement accessibles, mais aussi de faire preuve de transparence dans l’utilisation des données et de prévoir des mécanismes de consentement clairs si l’on veut maintenir la confiance et la participation du public.

          D’après Mme Cheng, le r?le des professionnels de la communication est amené à évoluer. ? Dans un environnement de la communication de plus en plus assisté par l’IA, le jugement humain devient non pas moins pertinent, mais plus stratégique. Les spécialistes en communication voient leur r?le se transformer : ils sont progressivement appelés à délaisser la création des messages pour se consacrer davantage à des taches de surveillance et d’organisation du contenu tout en veillant à instaurer un climat de confiance ?, explique-t-elle.

          Mme Boutaud de la Combe souligne combien il est important de prendre en compte la désinformation dans les évaluations nationales des risques liés aux situations d’urgence et a estimé que les organismes d’intervention d’urgence devraient se doter de protocoles encadrant la communication rapide avec le public, former des porte-parole désignés et préparer en amont des supports d’information multilingues à destination du public.

          Au moment d’élaborer des politiques relatives à l’utilisation de l’IA, il convient de veiller en priorité à trouver le point d’équilibre entre automatisation et responsabilité. ? L’IA ne remplacera pas le jugement humain dans les situations d’urgence, mais elle modifiera la fa?on dont nous détectons, controns et simulons les crises ?, affirme Philippe Borremans, consultant en communication de crise basé à Duba?. ? Dans un environnement où la désinformation abonde, l’IA peut à la fois jouer le r?le d’amplificateur et de filtre. Tout le défi consiste à faire en sorte que les algorithmes soient mis au service de la transparence et non de la confusion, et que la voix humaine reste le point d’ancrage. ?

          Et cette voix – éthique, réactive et ancrée dans la réalité – est peut-être l’atout le plus stratégique de tous.

          <dd id="rw0xn"></dd>

        2. <label id="rw0xn"></label>

        3. <sup id="rw0xn"><strike id="rw0xn"></strike></sup><label id="rw0xn"></label>
            <th id="rw0xn"></th>
          1. <var id="rw0xn"></var>
              1. <table id="rw0xn"></table>

                <sub id="rw0xn"><meter id="rw0xn"></meter></sub>
                97碰成人国产免费公开视频