Les agents d'IA nécessitent une identité : les preuves à connaissance nulle comme solution

Les agents d’IA nécessitent une identité : les preuves à connaissance nulle comme solution

19.11.2025 19:16
3 min de lecture

La vérification de l’identité des agents d’IA soulève des préoccupations majeures dans le paysage financier mondial. À mesure que les entreprises utilisent de plus en plus des agents d’IA pour examiner des notes de recherche et des dépôts de sociétés, la demande de données biométriques invasives comme les scans faciaux et les échantillons vocaux ne cesse d’augmenter, afin de prouver qu’il ne s’agit pas de robots. Cependant, une fois ces données mises à jour, elles peuvent être exploitées par des bots d’IA, remettant en question l’intégrité même des mécanismes de sécurité conçus pour les protéger, ce qui crée une nouvelle course aux armements en termes de vérification, rapporte TopTribune.

L’absence de vérification de l’identité des agents d’IA présente des risques de marché immédiats. Lorsque des agents d’IA peuvent usurper l’identité des humains, manipuler les marchés ou exécuter des transactions non autorisées, les entreprises hésitent à déployer des systèmes autonomes à grande échelle. Des modèles de langage (LLM) finement ajustés sur de plus petits ensembles de données ont **22 fois plus de chances** de produire des résultats néfastes que les modèles de base, et le succès des tentatives de contournement des garde-fous de sécurité et éthiques — un processus connu sous le nom de « jailbreak » — triple par rapport aux systèmes prêts à la production. Sans vérification d’identité fiable, chaque interaction avec l’IA se rapproche d’une violation potentielle de la sécurité.

Le problème ne se limite pas à empêcher les acteurs malveillants de déployer des agents rebelles, car nous sommes confrontés à une multitude d’interfaces d’IA. L’avenir verra un nombre croissant d’agents autonomes aux capacités accrues. Dans ce contexte, comment savoir avec qui nous interagissons ? Même les systèmes d’IA légitimes ont besoin de compétences vérifiables pour participer à l’économie émergente de l’agent à l’agent. Lorsqu’un bot de trading d’IA exécute une transaction avec un autre bot, les deux parties doivent être assurées de l’identité, de l’autorisation et de la structure de responsabilité de l’autre.

Le côté humain de cette équation est tout aussi défaillant. Les systèmes traditionnels de vérification de l’identité exposent les utilisateurs à d’énormes violations de données, facilitent trop facilement la surveillance autoritaire et génèrent des milliards de revenus pour de grandes entreprises qui vendent des informations personnelles sans compenser les individus qui les génèrent. Les gens sont légitimement réticents à partager davantage de données personnelles, alors que les exigences réglementaires demandent des procédures de vérification de plus en plus invasives.

Zéro connaissance : le pont entre la vie privée et la responsabilité

Les preuves à connaissance nulle (ZKPs) offrent une solution à ce problème apparemment inextricable. Plutôt que de révéler des informations sensibles, les ZKPs permettent aux entités, qu’elles soient humaines ou artificielles, de prouver des affirmations spécifiques sans exposer de données sous-jacentes. Un utilisateur peut prouver qu’il a plus de 21 ans sans révéler sa date de naissance. Un agent d’IA peut prouver qu’il a été formé sur des ensembles de données éthiques sans exposer d’algorithmes propriétaires. Une institution financière peut vérifier qu’un client respecte les exigences réglementaires sans stocker des informations personnelles qui pourraient être compromises.

Pour les agents d’IA, les ZKPs peuvent permettre les niveaux de confiance nécessaires, car nous devons vérifier non seulement l’architecture technique, mais aussi les modèles comportementaux, la responsabilité légale et la réputation sociale. Avec les ZKPs, ces affirmations peuvent être stockées dans un graphique de confiance vérifiable en chaîne.

Pensez-y comme à une couche d’identité composable qui fonctionne à travers les plateformes et les juridictions. De cette manière, lorsqu’un agent d’IA présente ses qualifications, il peut prouver que ses données de formation respectent des normes éthiques, que ses résultats ont été audités et que ses actions sont liées à des entités humaines responsables, le tout sans exposer d’informations propriétaires.

Les ZKPs pourraient complètement changer la donne, nous permettant de prouver qui nous sommes sans communiquer des données sensibles, mais leur adoption reste lente. Les ZKPs demeurent une niche technique

Laisser un commentaire

Your email address will not be published.

Dernières nouvelles

À NE PAS MANQUER