INFORMATIQUE- ETUDES ET ANALYSES- INTELLIGENCE
ARTIFICIELLE/AUTHENTIFICATION ET CERTIFICATION(II/II)
Comment
authentifier des humains et certifier des contenus à l’ère de l’intelligence
artificielle ?
© https://la-rem.eu/2025/07/ Jacques-André Fines Schlumberger/ - N° 73-74 Printemps – été 2025
Le défi de la certification de contenu : Le test qui porte son nom, proposé en 1950 par le
mathématicien britannique Alan Turing dans un article intitulé « Computing Machinery and
Intelligence », consiste à mesurer la capacité d’une machine à imiter le
comportement humain et à convaincre son interlocuteur qu’il converse avec une
personne réelle. Or, soixante-quinze ans plus tard, « il est devenu
impossible de distinguer à l’œil ou à l’oreille les contenus générés par
certaines Intelligences Artificielles », prévient Erwan Le Merrer, chercheur au sein de l’équipe Artishau
(ARTificial Intelligence, Security, trutHfulness and Audit) de l’Inria, à Rennes. Les médias
n’ont toutefois pas attendu ChatGPT pour utiliser des
logiciels capables de créer des contenus dont le lecteur ne peut pas deviner
s’il provient d’un humain ou d’une machine (voir La rem n°17, p.54).
Depuis 2014, les premières expérimentations de « robots
journalistes » ont largement eu le temps de se répandre auprès des
professionnels de l’information. Ce qui change, c’est que ces outils sont
dorénavant accessibles à tous, particuliers, entreprises, bien ou mal
intentionnés. Cette évolution soulève des enjeux éthiques et politiques
majeurs, ainsi que des défis techniques complexes : des outils développés
grâce à des IA génératives, accessibles gratuitement en ligne, avec un simple
abonnement ou en open source (voir infra), imitent des voix, des
visages ou des styles d’écriture trompeurs, rédigent de faux mails, passent de
faux appels, créent de faux profils, génèrent de faux messages sur les réseaux
sociaux, font de faux sites web, etc. On ne compte plus les ingérences dans le
débat public lors de périodes électorales, comme aux États-Unis en 2016, en
septembre 2023 en Slovaquie (voir La rem n°69-70, p.15),
en Moldavie à la même période, en Roumanie en novembre 2024, mais aussi en
France ou encore en Allemagne, et dont la Russie est l’un des principaux
instigateurs. Certes, la tenue d’élections est, depuis longtemps, propice à la
diffusion de fausses informations et autres tentatives d’ingérences dans le
débat public. Toutefois, l’automatisation facilitée par l’IA permet non
seulement de créer un contenu de bien meilleure qualité mais également de le
diffuser massivement, à travers des sites web eux aussi créés de toutes pièces
par des IA. Pour ne donner qu’un seul exemple, John Mark Dougan,
ancien shérif adjoint américain, installé à Moscou depuis 2016, a créé plus de
102 faux sites d’information en langue allemande afin de relayer des
fausses informations et amplifier des narratifs pro-Kremlin pendant les
élections outre-Rhin de février 2025. Des vidéos truquées à l’aide d’IA ont été
diffusées pour discréditer des candidats, des robots alimentés par IA diffusent
des milliers de messages et de commentaires sur des pages de réseaux sociaux,
parmi lesquels Facebook, Twitter ou encore TikTok,
afin d’influencer les plus crédules ou au moins de semer le doute. Gérald Holubowicz, spécialiste de l’IA et enseignant à Sciences
Po, affirmait, en avril 2025, devant la commission d’enquête du Sénat sur les
politiques publiques face aux opérations d’influence étrangère, que l’on allait
« assister à une forme d’étranglement des médias. Nous allons
devoir exister dans un océan de contenus IA fabriqués pour désinformer ».
Quant à Latanya Sweeney, titulaire de la chaire
Daniel-Paul sur la pratique du gouvernement et de la technologie à la Harvard
Kennedy School et à la faculté des arts et des
sciences de Harvard, elle estime qu’à l’avenir « 90 % du
contenu ne sera plus généré par des humains mais par des robots ». DeepMind,
le département IA de Google, a bien lancé SynthID, un
outil open source conçu pour « marquer » l’usage d’une IA dans un
texte, une image ou une vidéo. L’outil textuel SynthID-text
« introduit des informations supplémentaires au moment de la génération
du texte en modulant la probabilité que certains morceaux de phrase soient
présents, sans compromettre la qualité du texte », mentionne Pushmeet Kohli, responsable de la
recherche chez DeepMind. Il s’avère néanmoins que pour « enlever » ce
filigrane, il suffit de générer à nouveau le texte avec une autre intelligence artificielle.L’incapacité à distinguer les contenus générés par une IA inquiète
également les entreprises à l’origine de ces grands modèles de langage, qui se
livrent une guerre sans merci dans le but de réunir de gigantesques corpus de données
et de textes, notamment publiés sur le web, afin précisément d’entraîner ces
modèles (voir La rem n°69-70, p.52).
Or, il s’opère un cercle vicieux entre les contenus de qualité et les contenus
synthétiques générés par des IA. D’autant plus qu’avec « l’accès au web
en temps réel, les chatbots sont de plus en plus
sujets à citer des sources non fiables – dont plusieurs ont des noms qui
semblent dignes de confiance –, ce qui amplifie les faussetés
qui circulent en temps réel », précise Newsguard,
l’entreprise américaine spécialisée dans l’évaluation et la fiabilité des sites
d’information, dans un rapport publié en mars 2025 (voir La rem n°68, p.99).
L’entreprise estime qu’en février 2025 quelque 1 250 sites web
d’informations non fiables générés par l’IA sévissent dans le monde. Appelés
UAINS, pour Unreliable AI-generated News Sites, ils sont publiés en
seize langues – allemand, anglais, arabe, chinois, coréen, espagnol,
français, indonésien, italien, néerlandais, portugais, russe, tagalog, tchèque,
thaï, turc.Ironiquement, ces sites web incorporent
même des publicités programmatiques – des espaces publicitaires en ligne
vendus en temps réel à l’aide d’algorithmes, en intégrant la technologie
fournie par les plus grandes plateformes publicitaires comme Google Ads / Display & Video 360 –
DV360, The Trade Desk ou encore Xandr, racheté par
Microsoft, et dont les clients sont les grands annonceurs mondiaux, qui
financent donc involontairement ces faux sites web diffusant massivement
des fake news. Newsguard a ainsi
identifié un réseau de désinformation russe, Pravda, qui veut dire
« vérité » en russe, à l’origine de 3,6 millions d’articles
de fausses informations en 2024, et qui sont « désormais intégrés dans
les résultats des systèmes d’IA occidentaux, polluant leurs réponses avec de
fausses affirmations et de la propagande ».L’inquiétude
est réelle, et partagée par beaucoup. « Si nous ne faisons rien,
les activités malveillantes permises par l’IA risquent de définitivement
polluer le web », avertissaient trente-deux chercheurs, notamment
d’OpenAI, de Microsoft, de Harvard, de Berkeley et du
MIT, dans un article scientifique paru en août 2024, intitulé
« Identifiants de personnalité [Personhood
Credentials] : l’intelligence artificielle et
la valeur des outils de protection de la vie privée pour distinguer les individus
réels en ligne ».Dans quelle mesure est-il encore possible de garantir
l’authenticité et la fiabilité de l’information dans un environnement numérique
où s’estompent les frontières entre l’humain et la machine, ainsi qu’entre les
contenus rédigés par des personnes et ceux synthétiques, générés par des IA,
tout en assurant le respect de la vie privéede tout
un chacun ? Personne n’a encore de réponse.
Sources :
Newsguard, newsguardtech.com/fr/reports/ David Romain, « Intelligence artificielle et
fake news, un cocktail qui fait trembler nos démocraties », publicsenat.fr, 10
avril 2024./ Tobin Meaghan, Liu John, « National ID
for online is proposed by
China », New York Times, New York edition,
nytimes.com, July 31, 2024./ Young Martin, « AI deepfake tool on « new level » at bypassing crypto
exchange KYC: Report », cointelegraph.com, October
11, 2024./ « AI misinformation monitor of leading AI chatbots »,
newsguardtech.com, January 13, 2025./ Adler Steven, Hitzig Zoë, Jain Shray, Brewer Catherine, et al., « Personhood credentials: Artificial intelligence and the value of privacy-preserving tools to distinguish who is real online », arXiv.org, January
17, 2025./ Lapointe Pascal, « Les IA génératives toujours aussi mauvaises pour
détecter la désinformation », sciencepresse.qc.ca, 9 avril 2025./ Bonos Lisa, « Visit this store for a free iris scan to « prove » you’re human, not AI », washingtonpost.com, May 2, 2025./ Defer Aurélien, « Worldcoin, le
projet crypto de Sam Altman, débarque aux États-Unis », usine-digitale.fr, 5
mai 2025/ Armanet Enguerrand, « «Inutile, inefficace
et dangereux»… Qu’est-ce que « Worldcoin »,
le projet de cryptomonnaie controversé du fondateur d’OpenAI
? », lefigaro.fr, 8 mai 2025.