INFORMATIQUE- ETUDES ET ANALYSES- INTELLIGENCE
ARTIFICIELLE/AUTHENTIFICATION ET CERTIFICATION(I/II)
Comment authentifier des humains et certifier des contenus à l’ère de
l’intelligence artificielle ?
© https://la-rem.eu/2025/07/ Jacques-André Fines Schlumberger/ - N° 73-74 Printemps – été 2025
Quel système en ligne permettrait-il
de vérifier qu’un utilisateur est bien un être humain, et pas un programme
informatique ? Comment savoir qu’un contenu a été rédigé par un
humain plutôt que par une intelligence artificielle ?
Des solutions sont imaginées, voire explorées : imposer à tous un
identifiant internet, passer par des technologies biométriques ou encore
certifier des contenus numériques par des filigranes.
La capacité d’une IA à se faire passer
pour un humain et à générer des contenus dont il est impossible de deviner
s’ils sont l’œuvre d’un logiciel d’une personne pose d’innombrables défis, en
termes de confiance en ligne, de sécurité, d’intégrité de l’information ou
encore d’éducation. Les fausses informations, deepfakes,
sous forme de textes, d’images et, de plus en plus, au format audio ou vidéo,
participent d’une guerre de l’information, l’usage de l’IA amplifiant
considérablement à la fois la qualité des contenus et la portée de leur
diffusion. Les contre-mesures proposées – tels les systèmes de preuve
d’humanité (proof-of-personhood systems) ou bien les outils de détection de
contenu – sont confrontées à leurs propres limites, mais aussi à la
rapidité avec laquelle les IA génératives évoluent, ou encore à des
problématiques liées aux données personnelles.
Le défi de l’identification des
personnes : Alors que « les bots, ces
logiciels qui se font passer pour des humains, représentent entre 50 et
60 % du trafic sur internet », explique Christophe
Lebrun, data scientist et adjoint
scientifique a? la Haute École de gestion de Genève, comment savoir
si l’on parle à une personne ou à une machine ? En Chine, le
ministère de la sécurité publique et de l’administration du cyberespace a une
réponse toute trouvée : « Le gouvernement souhaite reprendre aux
entreprises la responsabilité de la vérification d’identité et fournir aux
citoyens un identifiant à utiliser sur l’ensemble d’internet [Internet
ID System] a déclaré le ministère en 2024. […] pour protéger la vie
privée et prévenir la fraude en ligne. » Pour Shen Kui,
professeur de droit à l’université de Pékin, « les risques et
préjudices potentiels d’une « identité internet » ou
d’un « permis internet » unifié sont immenses […] car
une identité numérique centralisée pourrait dissuader les gens d’utiliser
internet, par crainte d’être surveillés ou contrôlés ».Ailleurs dans le monde, d’autres systèmes dits « de preuve
d’humanité », gérés non par un gouvernement mais par des organisations
privées, émergent, notamment aux États-Unis. Ainsi, le système d’identification
biométrique proposé par l’entreprise controversée Tools for Humanity,
ironiquement cocréée par Sam Altman, le fondateur d’OpenAI,
aurait pour objet de différencier les IA des humains.L’entreprise
est liée au projet Worldcoin dont l’objectif est, ni
plus ni moins, de créer une identité numérique mondiale, pour chacun, grâce à
la reconnaissance de l’iris de l’œil, capturée à l’aide d’un très grand
appareil photographique de la forme d’une sphère argentée, baptisé Orb. Le
projet, lancé en 2019, a suscité beaucoup d’interrogations et a parfois été
interdit d’opérer sur le territoire, notamment dans certains pays en Europe, en
Afrique ou encore en Amérique du Sud, car confier le scan de son iris, une
donnée biométrique unique, à une entreprise privée n’est pas sans
risque. Pour inciter les personnes à donner l’image de leur iris, Tools
for Humanity offre quelques cryptoactifs, des Worldcoin,
dont la valeur varie entre 0,6 à 12 dollars. Alors que
l’entreprise peinait à proposer son service de scan d’iris aux États-Unis, le
changement de présidence a rendu possible, en mai 2025, son lancement dans plusieurs
grandes villes.Pour Debra Farber, privacy engineering manager (responsable
de l’ingénierie de la confidentialité) au Lumin
Digital, citée par le Washington Post, « WorldID tente de résoudre une crise de
l’authenticité humaine que le propre travail de Sam Altman chez OpenAI accélère, créant ainsi une boucle de rétroaction où
les méfaits d’un système justifient la surveillance d’un autre ». D’autant
plus que l’entreprise explique sur son site web vouloir « ouvrir la
voie à un revenu minimal universel fondé sur l’intelligence artificielle ».
Pour Frédéric Martin, ingénieur en cybersécurité et PDG de MyDID,
start-up qui développe une solution d’identité décentralisée basée sur des
standards internationaux (voir La rem n°69-70, p.100),
« il est difficile de croire au réalisme de cette utopie malfaisante
quand on connaît les revirements passés de l’entreprise OpenAI,
qui devait initialement partager ses recherches de manière transparente,
associative et non lucrative et qui a fini par devenir tout le contraire ».Aujourd’hui,
les procédures mises en œuvre par des établissements financiers afin d’authentifier
leurs clients sont de plus en plus laborieuses ; elles nécessitent une
pièce d’identité, une preuve de domicile et, bien souvent, une photo ou
un selfie (autoportrait) en temps réel. Ces techniques dites
de KYC, Know Your Customer, avant
d’autoriser le client à ouvrir un compte ou à utiliser un service, font l’objet
d’attaques de plus en plus sophistiquées. Des outils reposant sur l’IA, comme ProKYC, disponible pour 700 dollars ou OnlyFake pour 15 dollars, permettent de créer assez
facilement de faux passeports ou de fausses vidéos. Est-ce l’une des raisons
pour lesquelles, en mai 2025, Visa, l’un des plus grands réseaux de paiement
électronique au monde, et Stripe, plateforme et
solution de paiement en ligne, ont tous deux annoncé avoir signé un partenariat
avec l’entreprise de Sam Altman, Tools for Humanity ?Même si leurs enjeux
sont étroitement liés, prouver être une personne réelle ou vérifier que l’on
communique bien avec une personne reste bien moins complexe que de s’assurer
qu’un contenu a été produit par un humain et non par une intelligence artificielle.