Nom d'utilisateur:
Mot de passe:

Se souvenir de moi

S'inscrire
Recherche:

Intelligence artificielle/Authentification et certification (II/II)

Date de création: 12-07-2025 18:54
Dernière mise à jour: 12-07-2025 18:54
Lu: 4 fois


INFORMATIQUE- ETUDES ET ANALYSES- INTELLIGENCE ARTIFICIELLE/AUTHENTIFICATION ET CERTIFICATION(II/II)

 

 Comment authentifier des humains et certifier des contenus à l’ère de l’intelligence artificielle ?

 

© https://la-rem.eu/2025/07/ Jacques-André Fines Schlumberger/ N° 73-74 Printemps – été 2025

Le défi de la certification de contenu : Le test qui porte son nom, proposé en 1950 par le mathématicien britannique Alan Turing dans un article intitulé « Computing Machinery and Intelligence », consiste à mesurer la capacité d’une machine à imiter le comportement humain et à convaincre son interlocuteur qu’il converse avec une personne réelle. Or, soixante-quinze ans plus tard, « il est devenu impossible de distinguer à l’œil ou à l’oreille les contenus générés par certaines Intelligences Artificielles », prévient Erwan Le Merrer, chercheur au sein de l’équipe Artishau (ARTificial Intelligence, Security, trutHfulness and Audit) de l’Inria, à Rennes. Les médias n’ont toutefois pas attendu ChatGPT pour utiliser des logiciels capables de créer des contenus dont le lecteur ne peut pas deviner s’il provient d’un humain ou d’une machine (voir La rem n°17, p.54). Depuis 2014, les premières expérimentations de « robots journalistes » ont largement eu le temps de se répandre auprès des professionnels de l’information. Ce qui change, c’est que ces outils sont dorénavant accessibles à tous, particuliers, entreprises, bien ou mal intentionnés. Cette évolution soulève des enjeux éthiques et politiques majeurs, ainsi que des défis techniques complexes : des outils développés grâce à des IA génératives, accessibles gratuitement en ligne, avec un simple abonnement ou en open source (voir infra), imitent des voix, des visages ou des styles d’écriture trompeurs, rédigent de faux mails, passent de faux appels, créent de faux profils, génèrent de faux messages sur les réseaux sociaux, font de faux sites web, etc. On ne compte plus les ingérences dans le débat public lors de périodes électorales, comme aux États-Unis en 2016, en septembre 2023 en Slovaquie (voir La rem n°69-70, p.15), en Moldavie à la même période, en Roumanie en novembre 2024, mais aussi en France ou encore en Allemagne, et dont la Russie est l’un des principaux instigateurs. Certes, la tenue d’élections est, depuis longtemps, propice à la diffusion de fausses informations et autres tentatives d’ingérences dans le débat public. Toutefois, l’automatisation facilitée par l’IA permet non seulement de créer un contenu de bien meilleure qualité mais également de le diffuser massivement, à travers des sites web eux aussi créés de toutes pièces par des IA. Pour ne donner qu’un seul exemple, John Mark Dougan, ancien shérif adjoint américain, installé à Moscou depuis 2016, a créé plus de 102 faux sites d’information en langue allemande afin de relayer des fausses informations et amplifier des narratifs pro-Kremlin pendant les élections outre-Rhin de février 2025. Des vidéos truquées à l’aide d’IA ont été diffusées pour discréditer des candidats, des robots alimentés par IA diffusent des milliers de messages et de commentaires sur des pages de réseaux sociaux, parmi lesquels Facebook, Twitter ou encore TikTok, afin d’influencer les plus crédules ou au moins de semer le doute. Gérald Holubowicz, spécialiste de l’IA et enseignant à Sciences Po, affirmait, en avril 2025, devant la commission d’enquête du Sénat sur les politiques publiques face aux opérations d’influence étrangère, que l’on allait « assister à une forme d’étranglement des médias. Nous allons devoir exister dans un océan de contenus IA fabriqués pour désinformer ». Quant à Latanya Sweeney, titulaire de la chaire Daniel-Paul sur la pratique du gouvernement et de la technologie à la Harvard Kennedy School et à la faculté des arts et des sciences de Harvard, elle estime qu’à l’avenir « 90 % du contenu ne sera plus généré par des humains mais par des robots ». DeepMind, le département IA de Google, a bien lancé SynthID, un outil open source conçu pour « marquer » l’usage d’une IA dans un texte, une image ou une vidéo. L’outil textuel SynthID-text « introduit des informations supplémentaires au moment de la génération du texte en modulant la probabilité que certains morceaux de phrase soient présents, sans compromettre la qualité du texte », mentionne Pushmeet Kohli, responsable de la recherche chez DeepMind. Il s’avère néanmoins que pour « enlever » ce filigrane, il suffit de générer à nouveau le texte avec une autre intelligence artificielle.L’incapacité à distinguer les contenus générés par une IA inquiète également les entreprises à l’origine de ces grands modèles de langage, qui se livrent une guerre sans merci dans le but de réunir de gigantesques corpus de données et de textes, notamment publiés sur le web, afin précisément d’entraîner ces modèles (voir La rem n°69-70, p.52). Or, il s’opère un cercle vicieux entre les contenus de qualité et les contenus synthétiques générés par des IA. D’autant plus qu’avec « l’accès au web en temps réel, les chatbots sont de plus en plus sujets à citer des sources non fiables – dont plusieurs ont des noms qui semblent dignes de confiance –, ce qui amplifie les faussetés qui circulent en temps réel », précise Newsguard, l’entreprise américaine spécialisée dans l’évaluation et la fiabilité des sites d’information, dans un rapport publié en mars 2025 (voir La rem n°68, p.99). L’entreprise estime qu’en février 2025 quelque 1 250 sites web d’informations non fiables générés par l’IA sévissent dans le monde. Appelés UAINS, pour Unreliable AI-generated News Sites, ils sont publiés en seize langues – allemand, anglais, arabe, chinois, coréen, espagnol, français, indonésien, italien, néerlandais, portugais, russe, tagalog, tchèque, thaï, turc.Ironiquement, ces sites web incorporent même des publicités programmatiques – des espaces publicitaires en ligne vendus en temps réel à l’aide d’algorithmes, en intégrant la technologie fournie par les plus grandes plateformes publicitaires comme Google Ads / Display & Video 360 – DV360, The Trade Desk ou encore Xandr, racheté par Microsoft, et dont les clients sont les grands annonceurs mondiaux, qui financent donc involontairement ces faux sites web diffusant massivement des fake news. Newsguard a ainsi identifié un réseau de désinformation russe, Pravda, qui veut dire « vérité » en russe, à l’origine de 3,6 millions d’articles de fausses informations en 2024, et qui sont « désormais intégrés dans les résultats des systèmes d’IA occidentaux, polluant leurs réponses avec de fausses affirmations et de la propagande ».L’inquiétude est réelle, et partagée par beaucoup. « Si nous ne faisons rien, les activités malveillantes permises par l’IA risquent de définitivement polluer le web », avertissaient trente-deux chercheurs, notamment d’OpenAI, de Microsoft, de Harvard, de Berkeley et du MIT, dans un article scientifique paru en août 2024, intitulé « Identifiants de personnalité [Personhood Credentialsl’intelligence artificielle et la valeur des outils de protection de la vie privée pour distinguer les individus réels en ligne ».Dans quelle mesure est-il encore possible de garantir l’authenticité et la fiabilité de l’information dans un environnement numérique où s’estompent les frontières entre l’humain et la machine, ainsi qu’entre les contenus rédigés par des personnes et ceux synthétiques, générés par des IA, tout en assurant le respect de la vie privéede tout un chacun ? Personne n’a encore de réponse.

Sources : Newsguardnewsguardtech.com/fr/reports/ David Romain, « Intelligence artificielle et fake news, un cocktail qui fait trembler nos démocraties », publicsenat.fr, 10 avril 2024./ Tobin Meaghan, Liu John, « National ID for online is proposed by China », New York Times, New York edition, nytimes.com, July 31, 2024./ Young Martin, « AI deepfake tool on « new level » at bypassing crypto exchange KYC: Report », cointelegraph.com, October 11, 2024./ « AI misinformation monitor of leading AI chatbots », newsguardtech.com, January 13, 2025./ Adler Steven, Hitzig Zoë, Jain Shray, Brewer Catherine, et al., « Personhood credentials: Artificial intelligence and the value of privacy-preserving tools to distinguish who is real online », arXiv.org, January 17, 2025./ Lapointe Pascal, « Les IA génératives toujours aussi mauvaises pour détecter la désinformation », sciencepresse.qc.ca, 9 avril 2025./ Bonos Lisa, « Visit this store for a free iris scan to « prove » you’re human, not AI », washingtonpost.com, May 2, 2025./ Defer Aurélien, « Worldcoin, le projet crypto de Sam Altman, débarque aux États-Unis », usine-digitale.fr, 5 mai 2025/ Armanet Enguerrand, « «Inutile, inefficace et dangereux»… Qu’est-ce que « Worldcoin », le projet de cryptomonnaie controversé du fondateur d’OpenAI ? », lefigaro.fr, 8 mai 2025.