Bienvenue sur les pages du Ministère fédéral des Affaires étrangères

L’IA pour lutter contre les rumeurs et les fake news

Le danger des fake news – l’IA peut aider

Le danger des fake news – l’IA peut aider, © AdobeStock / Rawpixel Ltd.

04.05.2023 - Article

La désinformation est un problème majeur dans le monde des actualités. Deux nouveaux projets ont pour but de contrer les fausses informations à l’aide de l’intelligence artificielle.

Le nombre de fausses informations a fortement augmenté notamment avec la guerre en Ukraine, la pandémie de Covid-19 et la crise climatique. Toutefois, par fake news, on n’entend pas les informations erronées comme on en trouve par milliards sur les plateformes des réseaux sociaux comme Facebook et Twitter, mais les fausses déclarations et informations transmises intentionnellement. C’est-à-dire des images, textes, vidéos qui sont diffusés par des bots ou de faux comptes et dont il est difficile de vérifier la véracité. Derrière ce phénomène se cache une volonté : attiser la peur et nuire à la cohésion sociale.

Si l’intelligence artificielle (IA) permet de diffuser de telles fake news, elle peut aussi aider à les démasquer. Pour ce faire, le Centre de recherche sur l’informatique (FZI) en Allemagne a notamment lancé le projet DeFaktS en coopération avec le ministère fédéral de l’Éducation et de la Recherche. DeFaktS est l’acronyme allemand correspondant à l’objectif du projet : « Remédier aux campagnes de désinformation en identifiant les facteurs et éléments stylistiques ».

DeFaktS – l’IA avertit en cas de désinformation

Avec ce programme, l’IA est entraînée afin d’être capable de déceler la désinformation dans des services de réseaux sociaux et des groupes de messagerie et d’émettre un avertissement lorsqu’elle détecte des fake news. Pour y parvenir, l’équipe de recherche du FZI a créé de nombreux blocs de données provenant d’échanges sur Twitter et Telegram. L’intelligence artificielle peut ainsi reconnaître les éléments stylistiques typiques des fake news, comme la polarisation émotionnelle.

Dans une prochaine étape, l’IA entraînée sera utilisée pour ce que l’on appelle une XAI (Explainable Artificial Intelligence). Selon le FZI, cette intelligence artificielle explicable (ou « interprétable) n’a pas seulement pour but d’indiquer qu’il s’agit potentiellement de contenus problématiques. Elle doit aussi permettre de comprendre les motifs qui l’ont poussée à déclencher cet avertissement. Cependant, pour l’équipe de recherche, il n’est pas question de filtrer ou de censurer les contenus. Les utilisatrices et utilisateurs doivent porter leur propre regard critique sur les informations qu’ils reçoivent.  »Cet aspect est très important pour nous, car il touche à l’éducation numérique de la société« , explique Jonas Fegert, expert au FZI.

noFake – la coopération entre l’intelligence humaine et de l’IA

Le centre de recherche Correctiv souhaite lui aussi offrir aux individus un outil qui les aide à reconnaître les fausses informations. Il développe donc le projet  »noFake«  en collaboration avec l’Université de la Ruhr à Bochum et l’IUT de Dortmund. La coopération entre l’intelligence humaine et artificielle doit faciliter la distinction entre des faits et de fausses informations. Les scientifiques élaborent pour cela des systèmes d’assistance fondés sur l’IA qui détectent non seulement les fausses informations potentielles, mais aident également à effectuer des analyses de textes et d’images. Après une formation, les citoyennes et citoyens engagé(e)s qui le souhaitent peuvent vérifier par leurs propres moyens les informations en tant que  »crowd worker «  sur la plateforme  »Correktiv.Faktenforum« .  »Nous construisons ainsi une communauté de vérification des faits qui associe engagement et standards professionnels« , explique David Schraven, éditeur de Correctiv.

© www.deutschland.de/fr

Retour en haut de page