Nom d'utilisateur:
Mot de passe:

Se souvenir de moi

S'inscrire
Recherche:

Intelligence artificielle/Authentification et certification (I/II)

Date de création: 12-07-2025 18:52
Dernière mise à jour: 12-07-2025 18:55
Lu: 6 fois


INFORMATIQUE- ETUDES ET ANALYSES- INTELLIGENCE ARTIFICIELLE/AUTHENTIFICATION ET CERTIFICATION(I/II)

 

 Comment authentifier des humains et certifier des contenus à l’ère de l’intelligence artificielle ?

 

© https://la-rem.eu/2025/07/ Jacques-André Fines Schlumberger/ N° 73-74 Printemps – été 2025

 

Quel système en ligne permettrait-il de vérifier qu’un utilisateur est bien un être humain, et pas un programme informatique ? Comment savoir qu’un contenu a été rédigé par un humain plutôt que par une intelligence artificielle ? Des solutions sont imaginées, voire explorées : imposer à tous un identifiant internet, passer par des technologies biométriques ou encore certifier des contenus numériques par des filigranes.

La capacité d’une IA à se faire passer pour un humain et à générer des contenus dont il est impossible de deviner s’ils sont l’œuvre d’un logiciel d’une personne pose d’innombrables défis, en termes de confiance en ligne, de sécurité, d’intégrité de l’information ou encore d’éducation. Les fausses informations, deepfakes, sous forme de textes, d’images et, de plus en plus, au format audio ou vidéo, participent d’une guerre de l’information, l’usage de l’IA amplifiant considérablement à la fois la qualité des contenus et la portée de leur diffusion. Les contre-mesures proposées – tels les systèmes de preuve d’humanité (proof-of-personhood systems) ou bien les outils de détection de contenu – sont confrontées à leurs propres limites, mais aussi à la rapidité avec laquelle les IA génératives évoluent, ou encore à des problématiques liées aux données personnelles.

Le défi de l’identification des personnes : Alors que « les bots, ces logiciels qui se font passer pour des humains, représentent entre 50 et 60 % du trafic sur internet », explique Christophe Lebrun, data scientist et adjoint scientifique a? la Haute École de gestion de Genève, comment savoir si l’on parle à une personne ou à une machine ? En Chine, le ministère de la sécurité publique et de l’administration du cyberespace a une réponse toute trouvée : « Le gouvernement souhaite reprendre aux entreprises la responsabilité de la vérification d’identité et fournir aux citoyens un identifiant à utiliser sur l’ensemble d’internet [Internet ID System] a déclaré le ministère en 2024. […] pour protéger la vie privée et prévenir la fraude en ligne. » Pour Shen Kui, professeur de droit à l’université de Pékin, « les risques et préjudices potentiels d’une « identité internet » ou d’un « permis internet » unifié sont immenses […] car une identité numérique centralisée pourrait dissuader les gens d’utiliser internet, par crainte d’être surveillés ou contrôlés ».Ailleurs dans le monde, d’autres systèmes dits « de preuve d’humanité », gérés non par un gouvernement mais par des organisations privées, émergent, notamment aux États-Unis. Ainsi, le système d’identification biométrique proposé par l’entreprise controversée Tools for Humanity, ironiquement cocréée par Sam Altman, le fondateur d’OpenAI, aurait pour objet de différencier les IA des humains.L’entreprise est liée au projet Worldcoin dont l’objectif est, ni plus ni moins, de créer une identité numérique mondiale, pour chacun, grâce à la reconnaissance de l’iris de l’œil, capturée à l’aide d’un très grand appareil photographique de la forme d’une sphère argentée, baptisé Orb. Le projet, lancé en 2019, a suscité beaucoup d’interrogations et a parfois été interdit d’opérer sur le territoire, notamment dans certains pays en Europe, en Afrique ou encore en Amérique du Sud, car confier le scan de son iris, une donnée biométrique unique, à une entreprise privée n’est pas sans risque. Pour inciter les personnes à donner l’image de leur iris, Tools for Humanity offre quelques cryptoactifs, des Worldcoin, dont la valeur varie entre 0,6 à 12 dollars. Alors que l’entreprise peinait à proposer son service de scan d’iris aux États-Unis, le changement de présidence a rendu possible, en mai 2025, son lancement dans plusieurs grandes villes.Pour Debra Farberprivacy engineering manager (responsable de l’ingénierie de la confidentialité) au Lumin Digital, citée par le Washington Post, « WorldID tente de résoudre une crise de l’authenticité humaine que le propre travail de Sam Altman chez OpenAI accélère, créant ainsi une boucle de rétroaction où les méfaits d’un système justifient la surveillance d’un autre ». D’autant plus que l’entreprise explique sur son site web vouloir « ouvrir la voie à un revenu minimal universel fondé sur l’intelligence artificielle ». Pour Frédéric Martin, ingénieur en cybersécurité et PDG de MyDID, start-up qui développe une solution d’identité décentralisée basée sur des standards internationaux (voir La rem n°69-70, p.100), « il est difficile de croire au réalisme de cette utopie malfaisante quand on connaît les revirements passés de l’entreprise OpenAI, qui devait initialement partager ses recherches de manière transparente, associative et non lucrative et qui a fini par devenir tout le contraire ».Aujourd’hui, les procédures mises en œuvre par des établissements financiers afin d’authentifier leurs clients sont de plus en plus laborieuses ; elles nécessitent une pièce d’identité, une preuve de domicile et, bien souvent, une photo ou un selfie (autoportrait) en temps réel. Ces techniques dites de KYC, Know Your Customer, avant d’autoriser le client à ouvrir un compte ou à utiliser un service, font l’objet d’attaques de plus en plus sophistiquées. Des outils reposant sur l’IA, comme ProKYC, disponible pour 700 dollars ou OnlyFake pour 15 dollars, permettent de créer assez facilement de faux passeports ou de fausses vidéos. Est-ce l’une des raisons pour lesquelles, en mai 2025, Visa, l’un des plus grands réseaux de paiement électronique au monde, et Stripe, plateforme et solution de paiement en ligne, ont tous deux annoncé avoir signé un partenariat avec l’entreprise de Sam Altman, Tools for Humanity ?Même si leurs enjeux sont étroitement liés, prouver être une personne réelle ou vérifier que l’on communique bien avec une personne reste bien moins complexe que de s’assurer qu’un contenu a été produit par un humain et non par une intelligence artificielle.