A

llm-trading-agent-security

par affaan-m

llm-trading-agent-security est un guide pratique pour sécuriser des agents de trading autonomes disposant d’une autorité sur un wallet. Il couvre l’injection de prompts, les limites de dépense, la simulation avant envoi, les coupe-circuits, l’exécution sensible au MEV et l’isolation des clés afin de réduire le risque de perte financière dans un audit de sécurité.

Étoiles156.2k
Favoris0
Commentaires0
Ajouté15 avr. 2026
CatégorieSecurity Audit
Commande d’installation
npx skills add affaan-m/everything-claude-code --skill llm-trading-agent-security
Score éditorial

Cette skill obtient 74/100, ce qui la rend digne d’être सूची? نہیں

74/100
Points forts
  • Cas d’usage clair et facilement déclenchable : elle cible explicitement les agents qui signent des transactions, passent des ordres, gèrent des wallets ou pilotent des outils de trésorerie.
  • Contenu utile sur le plan opérationnel : il couvre des sujets concrets de sécurité comme la défense contre l’injection de prompts, les limites de dépense, la simulation avant envoi, les coupe-circuits, la protection contre le MEV et la gestion des clés.
  • Bonne densité de contenu pour une skill en fichier unique : un frontmatter valide, plusieurs sections et des exemples de code rendent les recommandations exploitables par un agent.
Points de vigilance
  • Scaffolding d’adoption limité : pas de commande d’installation, pas de fichiers d’accompagnement ni de ressources/références, donc les utilisateurs devront parfois déduire les détails d’intégration.
  • Périmètre plus étroit qu’une skill généraliste : elle convient surtout au durcissement de la sécurité d’agents de trading, pas à l’automatisation du trading au sens large.
Vue d’ensemble

Vue d’ensemble de la skill llm-trading-agent-security

llm-trading-agent-security est une skill de sécurité pratique pour les agents de trading autonomes capables de signer, swapper, approuver ou envoyer des fonds. Elle vous aide à déterminer où un système de trading piloté par un LLM peut échouer, quelles protections superposer et comment réduire le risque qu’un mauvais prompt, un flux compromis ou un appel d’outil dangereux se transforme en perte financière réelle.

À qui s’adresse cette skill

Utilisez la skill llm-trading-agent-security si vous construisez ou auditez un agent disposant d’une autorité sur un wallet, d’une capacité de passage d’ordres, d’un accès à la trésorerie ou d’une exécution on-chain. Elle est particulièrement pertinente pour les équipes qui mènent un Security Audit de bots de trading, d’assistants d’exécution ou de workflows DeFi agentiques.

Quel problème elle résout

Son objectif principal n’est pas de « rendre l’agent plus intelligent ». Il s’agit de « rendre l’agent plus sûr à laisser agir ». La skill se concentre sur l’injection de prompt, les plafonds de dépense, la simulation avant envoi, les coupe-circuits, l’exécution sensible au MEV et l’isolation des clés afin de séparer le raisonnement de l’autorité.

En quoi elle se distingue

Ce n’est pas un simple prompt de sécurité LLM générique. La skill llm-trading-agent-security traite l’injection de prompt comme une voie d’attaque financière et privilégie des contrôles superposés plutôt qu’une seule protection unique. Elle est donc utile quand l’ingénierie de prompt classique ne suffit plus et qu’il faut des garde-fous concrets avant le déploiement.

Comment utiliser la skill llm-trading-agent-security

Installer et ouvrir les fichiers source

Installez la skill llm-trading-agent-security avec :

npx skills add affaan-m/everything-claude-code --skill llm-trading-agent-security

Puis lisez d’abord SKILL.md. Dans ce dépôt, il n’existe pas de dossiers d’appui rules/, resources/ ou scripts/, donc le contenu de la skill est la source de vérité principale. Cette première lecture est importante : elle vous indique le modèle de menace visé et les contrôles que la skill attend de vous.

Transformer un objectif vague en prompt exploitable

L’usage de llm-trading-agent-security est beaucoup plus efficace si vous lui donnez un contexte opérationnel concret, plutôt qu’une demande floue du type « sécurise mon agent ». Les bons points d’entrée incluent :

  • la chaîne ou la place de marché, par exemple des swaps EVM, du routage Solana ou une exécution cross-chain
  • ce que l’agent peut faire, par exemple approve, swap, bridge ou withdraw
  • la perte maximale autorisée par action ou par jour
  • les données lues par l’agent, comme des flux sociaux, des métadonnées de tokens ou des API de prix
  • si l’objectif est une revue de conception, un durcissement du prompt ou une mise en place de garde-fous en production

Exemple de prompt :
« Utilise llm-trading-agent-security pour auditer un agent qui lit des publications sociales, propose des trades et peut soumettre des swaps EVM. Identifie les chemins d’injection de prompt, ajoute des limites de dépenses, définis des contrôles de simulation et propose une isolation du wallet ainsi que des règles de coupe-circuit. »

Appliquer un workflow en couches

La skill est la plus utile quand vous traitez les contrôles comme des couches indépendantes :

  1. nettoyer ou contraindre le texte non fiable avant qu’il n’atteigne l’agent
  2. limiter les dépenses, le périmètre des approbations et la fenêtre temporelle
  3. simuler ou prévisualiser les transactions avant l’envoi
  4. ajouter des coupe-circuits en cas de perte ou de comportement anormal
  5. isoler les clés et les privilèges d’exécution du modèle de raisonnement

Pour l’installation et l’usage de llm-trading-agent-security, cette approche par couches compte davantage qu’un quelconque extrait de code isolé. Si une couche échoue, les autres réduisent encore le rayon d’impact.

Lire pour prendre des décisions, pas pour décorer

Quand vous examinez le contenu du dépôt, concentrez-vous sur les sections qui modifient les choix d’implémentation :

  • When to Use pour l’adéquation et les limites
  • How It Works pour la pile de contrôles
  • Examples pour des modèles pratiques d’anti-injection et de contrôle des dépenses

Si la conception actuelle de votre agent ne peut pas supporter la simulation, les plafonds de dépense ou la séparation des clés, c’est un signal qu’il faut revoir l’architecture avant d’intégrer la skill.

FAQ sur la skill llm-trading-agent-security

Cette skill est-elle réservée aux bots DeFi ?

Non. La skill llm-trading-agent-security convient aussi à tout agent capable de passer des trades, déplacer des actifs ou déclencher des actions financières. Si le LLM peut modifier des soldes, ouvrir des positions ou approuver des dépenses, le modèle de menace s’applique.

Est-elle meilleure qu’un prompt de sécurité classique ?

Oui, lorsque le système dispose d’une véritable autorité d’exécution. Un prompt classique peut simplement rappeler au modèle d’être prudent, mais cette skill est construite autour de contrôles concrets : gestion de l’injection, limites, simulation et frontières d’exécution. Cela la rend plus utile pour un Security Audit qu’une simple checklist générique.

Des débutants peuvent-ils l’utiliser ?

Oui, à condition de pouvoir décrire clairement les actions de leur agent. Les débutants obtiennent généralement les meilleurs résultats en partant d’un seul workflow étroit, par exemple « uniquement des suggestions de trade » ou « exécution de swaps avec budget plafonné », puis en élargissant après la première revue.

Quand ne faut-il pas l’utiliser ?

N’utilisez pas llm-trading-agent-security comme substitut à la sécurité applicative générale, à la conformité d’un exchange ou à un audit spécifique à une chaîne. Si l’agent n’a aucune autorité pour déplacer de la valeur, la skill peut aller au-delà de ce dont vous avez besoin. S’il dispose d’une autorité large, ce type de guidance centrée sur les contrôles devient nécessaire.

Comment améliorer la skill llm-trading-agent-security

Donner à la skill les vraies frontières de confiance

Les meilleurs résultats avec llm-trading-agent-security viennent d’une description précise de ce que l’agent peut faire et ne peut pas faire. Indiquez les actions autorisées, les actions interdites, le flux d’approbation, le modèle de détention des clés et la nécessité ou non d’une validation humaine pour les transactions à risque. Sans ces limites, la réponse peut rester trop abstraite.

Fournir des cas d’échec, pas seulement des objectifs

Si vous voulez une revue de sécurité vraiment utile, incluez les voies d’abus probables : métadonnées de token malveillantes, injection de prompt via publication sociale, réponses API empoisonnées, données de prix obsolètes ou approbations excessives. Cela permet à la skill de se concentrer sur les contrôles qui comptent au lieu de répéter des bonnes pratiques évidentes.

Demander les arbitrages d’implémentation

Pour améliorer le rendu du guide llm-trading-agent-security, demandez des arbitrages entre sécurité et automatisation. Par exemple, sollicitez une comparaison entre une simulation stricte avant envoi et une exécution plus rapide, ou entre l’isolation du wallet et la facilité opérationnelle. Cela vous aide à décider quoi livrer en premier.

Itérer après le premier passage

Après la première réponse, resserrez le prompt avec vos vraies contraintes : taille maximale des ordres, tolérance à la latence, chaînes prises en charge et possibilité de rejeter immédiatement les entrées suspectes. Demandez ensuite à la skill de reclasser les contrôles par gain de réduction du risque. Cela produit généralement un plan de Security Audit plus exploitable qu’une demande large en une seule fois.

Notes et avis

Aucune note pour le moment
Partagez votre avis
Connectez-vous pour laisser une note et un commentaire sur cet outil.
G
0/10000
Derniers avis
Enregistrement...