Points clés à retenir
- Les routeurs LLM, intermédiaires largement utilisés entre les agents d’IA et les fournisseurs de modèles, peuvent accéder et modifier des données sensibles, ont indiqué les chercheurs.
- Les portefeuilles crypto et les informations d’identification sont directement exposés aux LLM.
- La convergence IA-crypto pourrait favoriser l’adoption, mais ajoute des risques.
Les services tiers utilisés pour acheminer les requêtes entre les agents d’IA et les grands modèles de langage pourraient exposer les utilisateurs au vol d’informations d’identification et aux pertes de cryptographie, selon une nouvelle étude menée par des universitaires américains étudiant l’écosystème émergent des « routeurs LLM ».
Le papier, publié sur arXiv par des chercheurs de l’Université de Californie à Santa Barbara, de l’Université de Californie à San Diego et d’autres, ont examiné comment ces systèmes intermédiaires gèrent le trafic entre les utilisateurs et les fournisseurs de modèles tels qu’OpenAI, Anthropic et Google.
Sommaire
Les routeurs LLM créent de nouveaux risques de sécurité
Les chercheurs ont déclaré que les routeurs LLM fonctionnent comme des intermédiaires avec « un accès complet en texte clair à chaque charge utile JSON en vol ».
Cela donne aux LLM une visibilité sur les données sensibles telles que les clés API et les invites.
Lors de tests portant sur 28 routeurs payants et 400 gratuits, l’étude a révélé qu’un routeur payant et huit routeurs gratuits « injectaient du code malveillant dans les appels d’outils renvoyés ».
Les 17 autres ont accédé à des informations d’identification cloud contrôlées par les chercheurs.
Le document sur les routeurs LLM avertit que cela crée un problème de confiance critique.
Ils ont noté qu’« un seul routeur malveillant ou compromis » peut réécrire les appels d’outils ou extraire les informations d’identification sans être détecté.
Il a identifié quatre types d’attaques : notamment « l’injection de charge utile (AC-1) » et « l’exfiltration secrète (AC-2) ».
Ces attaques permettent aux attaquants de modifier les commandes exécutées par les agents d’IA ou de collecter silencieusement des données sensibles.
Le test Ethereum démontre le risque de vol
Pour évaluer l’impact dans le monde réel, les chercheurs ont testé l’exposition des informations d’identification crypto à l’aide de portefeuilles Ethereum préfinancés.
Ils ont rapporté « 1 [router] drainant l’ETH d’une clé privée Ethereum appartenant à un chercheur », montrant que les fonds pourraient être consultés une fois que les clés sensibles transitent par une infrastructure de routage compromise.
Bien que l’expérience ait nécessité des fonds minimes, elle a démontré comment « un seul appel d’outil réécrit est suffisant pour l’exécution de code arbitraire », permettant potentiellement aux attaquants de manipuler des transactions.
Les auteurs ont déclaré que cela met en évidence les risques pour les développeurs utilisant des agents d’IA pour interagir avec des portefeuilles crypto, en particulier lorsque les systèmes peuvent exécuter des commandes automatiquement.
Routeur LLM et vulnérabilités plus larges de la chaîne d’approvisionnement
L’étude a également examiné comment les informations d’identification compromises peuvent se propager dans l’écosystème de l’IA.
Les chercheurs ont délibérément divulgué une clé API OpenAI contrôlée sur des forums chinois, WeChatet les groupes Telegram.
Les LLM ont rapidement récupéré les clés API compromises et généré « 100 millions de jetons GPT-5.4 » et plusieurs sessions Codex.
Cela a montré comment un accès volé peut se propager à différents services à l’insu de l’utilisateur d’origine.
Dans un autre test, les chercheurs ont mis en place des services de relais faiblement sécurisés, notamment Sub2API, claude-relay-service et CLIProxyAPI.
Ces systèmes ont été rapidement ciblés, faisant l’objet de milliers de tentatives d’accès non autorisées.
Ils ont ensuite été utilisés pour traiter environ « 2 milliards de jetons GPT-5.4/5.3-codex », exposant « 99 informations d’identification sur 440 sessions Codex ».
Beaucoup de ces sessions s’exécutaient en « mode YOLO », ce qui signifie que les commandes étaient exécutées automatiquement sans l’approbation de l’utilisateur.
Les résultats suggèrent que même les services qui semblent sûrs peuvent faire partie d’une chaîne d’attaque s’ils s’appuient sur des clés divulguées.
Appels à des garanties plus strictes
Même si certaines protections côté client peuvent réduire les risques, les chercheurs affirment que les mesures actuelles ne résolvent pas pleinement le problème.
Ils ont fait valoir que la sécurisation des agents d’IA nécessiterait des garanties plus solides de la part des fournisseurs de modèles.
Les chercheurs ont appelé à « l’intégrité des réponses soutenue par le fournisseur afin que l’appel d’outil qu’un agent exécute puisse être lié cryptographiquement à ce que le modèle en amont a réellement produit ».
Les défenses existantes, telles que les contrôles politiques, peuvent limiter l’exposition mais restent incomplètes, ont indiqué les chercheurs.
« Aucun contrôle côté client disponible aujourd’hui ne peut prouver qu’un routeur a préservé la réponse du fournisseur en amont », indique le journal.
Les chercheurs ont souligné la nécessité de normes à l’échelle de l’industrie, y compris la signature crypto des résultats du modèle, pour garantir que les réponses n’ont pas été modifiées pendant le transport.
D’ici là, ils ont averti les développeurs de considérer les services de routage tiers comme un composant à haut risque dans la chaîne d’approvisionnement de l’IA.
Ceci est particulièrement important lors du traitement de données sensibles ou de l’exécution d’actions automatisées.
L’IA considérée comme un moteur potentiel de l’adoption de la cryptographie
L’intersection croissante entre l’IA et la blockchain alimente également l’espoir que la cryptographie pourrait jouer un rôle plus important dans la prochaine vague de son développement.
Le capital-risqueur Marc Andreessen a décrit la convergence comme une « grande unification ».
Il a fait valoir que les systèmes d’IA autonomes nécessiteront une infrastructure de paiement numérique native pour fonctionner efficacement.
Andreessen a déclaré : « Je pense que l’IA est l’application de cryptographie qui tue ». sur le podcast Latent Space.
Il a souligné les premiers signes d’adoption alors que les utilisateurs avancés expérimentent des agents d’IA financièrement autonomes.
«Mes amis… ont donné leur [AI agents] comptes bancaires et cartes de crédit », a-t-il déclaré, ajoutant que même si l’adoption est encore limitée, « elle va se développer. C’est comme ça que ces choses commencent.
Les analystes estiment que cela implique que les systèmes de paiement crypto-natifs pourraient offrir une alternative plus efficace aux circuits bancaires traditionnels pour les transactions de machine à machine, d’autant plus que les agents d’IA commencent à fonctionner de manière indépendante.
Ethereum positionné comme bénéficiaire clé
Les observateurs du marché désignent de plus en plus Ethereum comme un bénéficiaire probable de cette tendance.
Cela est notamment dû à son rôle de principale blockchain programmable.
Certains analystes affirment que le rôle d’Ethereum va au-delà de celui d’une monnaie numérique.
Dominic Basalto, analyste de Motley Fool, a déclaré en décrivant Ethereum comme simplement une crypto « cela rend-il un mauvais service », le présentant plutôt comme une plate-forme informatique plus large.
Il a ajouté qu’Ethereum « continue d’être le leader incontesté du marché dans les niches clés de la blockchain ».
Basalto a souligné la domination d’Ethereum dans les applications décentralisées et les cas d’utilisation financière.
Pendant ce temps, Tom Lee, président de BitMine, a également identifié l’IA comme l’un des principaux moteurs de la croissance à long terme d’Ethereum.
Lee a déclaré que 2026 pourrait être une « année déterminante pour Ethereum », soulignant la possibilité pour les agents d’IA d’utiliser le réseau pour les paiements et la vérification.
« Si Bitcoin atteint 250 000 dollars, cela valoriserait Ethereum entre 12 000 et 22 000 dollars s’il revient à son ratio de 2021 », a-t-il déclaré.