L'intelligence artificielle transforme radicalement le panorama de la désinformation. David Puentedirecteur adjoint et directeur du projet de vérification des faits du journal « ouvert » en ligne, observe avec Adnkronos qui doit aujourd'hui faire face à un ennemi beaucoup plus puissant, rapide et souvent invisible.
Adieu à la source principale: le « patient zéro » a disparu
« La vraie difficulté est qu'avec AIS, vous pouvez créer un contenu difficile à retracer », explique-t-il. « Les images générées artificiellement n'ont pas de source primaire reconnaissable, ce qui rend presque impossible de retracer le » patient zéro « ». Si par le passé, vous pouvez démasquer un canular de retour à l'origine d'une photo ou d'une vidéo, le contenu est maintenant synthétique, et souvent ils sont déjà viraux lorsque l'alarme se déroule sur leur véracité.
Le Guerres à Gaza et ukraine Ils sont le champ de bataille parfait pour les mystificateurs et les propagandistes: « Mais une chose, c'est quand le chef Rubio a diffusé des images d'enfants tués en Syrie en les faisant passer pour les Palestiniens, ou lorsque Moscou propage des vidéos dans lesquelles des drapeaux russes ont été vus agités dans les bâtiments d'Odessa, mais en réalité, ils ont été abattus à Chabarovsk, dans le Russie East.
Bien sûr, dans certaines des vidéos réalisées avec l'IA, les gens ont six doigts, ou ils écrasent lorsqu'ils quittent le centre de la scène, ou ont des vêtements écrits et ont inventé des chiffres. « Mais la qualité s'améliore chaque semaine, et presque tout le monde regarde les films à partir du téléphone sur de petits écrans et sans remarquer de détails sur lesquels ceux qui recherchent l'authenticité se concentrent », ajoute Puente, qui ne voit pas de solution même dans les règles (errant) qui devraient imposer le filigrane, les « moules '' sur les images, pour certifier leur origine synthétique: « ces stampons peuvent être couverts, Burred. Ou Vy of Google a des «traces» pour retracer son origine, mais si cette vidéo est à nouveau enregistrée en enregistrant l'écran, vous perdez toute traçabilité ».
La fondation créée par le défunt Yevgeny Prigozhin, chef de Wagner, a publié un faux dossier contre l'Ukraine, dans lequel il a été affirmé que Kiev sélectionnait génétiquement des soldats pour créer de nouvelles générations de forces armées à déployer contre les Russes. « Un canular total, mais la vidéo originale, tournée par un gynécologue qui a filmé ses patients, a eu un filigrane, puis couvert. Il avait également été coupé pour changer les proportions du film, ce qui rend encore plus complexe pour revenir à la source ».
Il y a l'instrument des notions des communautés, déjà adoptés par X et maintenant par Facebook et Instagram, avec lesquels quiconque, en s'inscrivant avec certaines informations d'identification, peut signaler le contenu et contribuer à la modération collective. « Le problème – dit Puente – est que parfois la note est prise pour de bon avant même d'être votée par les utilisateurs enregistrés. Un effet domino est déclenché: s'il confirme ce que les gens croient déjà, il est immédiatement considéré comme vrai, même s'il a tort ». Et donc une petite armée de débunker auto-style finit par nourrir la confusion.
Un cas récent concerne une photo qui, selon Grok (le chatbot d'Elon Musk), était une fille de Yazida en Syrie en 2014, alors qu'en réalité c'était une image récente de Gaza. L'erreur est non seulement devenue virale, a créé un testacoda: la manipulation réside dans le déni et non dans le contenu d'origine.
Deepfake, Photos aux limites des outils de vérification
La facilité avec laquelle des photos et des vidéos réalistes peuvent être générées aujourd'hui ont soulevé la barre. « Ce n'est pas seulement la qualité de l'image – observe Puente – mais le fait qu'ils n'existent pas de références dans le passé: si une photo AI représente un enfant blessé, mais cet enfant n'existe pas, comment le vérifiez-vous? » La difficulté technique ajoutée est ajoutée: les outils disponibles en ligne pour découvrir du contenu généré artificiellement, donnent souvent des résultats fallacieux. « Une de mes photos de 2006 scanned a été identifiée à 100% comme créée avec l'IA. La même chose pour la figurine de Baggio lors de la Coupe du monde '94! ». C'est un problème de pixels, floues et donc pas très crédibles, mais principalement de machines prodigieuses qui ont encore de nombreuses limites.
Lorsque des sources fiables sont également erronées
Le dilemme n'épargne même pas les sources traditionnellement plus fiables. « Il y a eu des cas dans lesquels les agences photographiques ont publié un matériel incorrect. Une vidéo attribuée aux bombardements au Pakistan, en fait tournée en Palestine, s'est retrouvée aux nouvelles. » Un autre exemple: « Après le 7 octobre, les images d'une fosse commune provenaient de plus de personnes au Moyen-Orient. Selon elles, c'est l'armée israélienne qui nous a déversés par des cadavres palestiniens.
Les préjugés, les manipulations et l'illusion de l'autorisation
L'un des aspects les plus dangereux de l'IA appliqués à l'information est l'illusion de l'impartialité. « Un formé en Russie, que dira des Ukrainiens? Que Zelensky est une cocaïneomane et que les soldats sont tous des nazis ». Les biais culturels et politiques sont transmis aux algorithmes, avec des chatbots qui créent un contenu apparemment neutre mais en fait profondément orienté. « Une fois, je me suis donné le Pro-Pal et la minute après le philosionniste. Mais les vérificateurs de faits sont également humains, ils font des erreurs, et malheureusement ils sont étiquetés selon la commodité du moment ».
Un réseau de résistance mondial (humain)
Malgré les difficultés, le travail des Keckers de fait reste central. « Nous sommes de plus en plus, même si dans un monde idéal, notre profession n'existerait pas. Nous nous sommes structurés dans des réseaux internationaux, nous collaborons entre des collègues. Nous nous aidons mutuellement à tracer l'origine des canular et essayons de ralentir leur diffusion. Nous nous donnons des règles éthiques, nous créons des procédures de vérification standard pour minimiser les erreurs. Mais je ne veux pas que les gens me disent, ou je finirais dans le même coup » (par Giorgo pour me dire, ou je finirais dans le Trapo « (par Giorgo pour me dire », ou je finirais dans le même tronole




