L'essor de DeFAI : défis de sécurité des agents IA dans la finance Web3 et stratégies de réponse

robot
Création du résumé en cours

Fusion de l'IA et du Web3 : Nouveaux défis de sécurité apportés par l'essor de DeFAI

Récemment, la Semaine de la Blockchain d'Istanbul (IBW 2025) s'est concentrée sur la tendance de la fusion entre l'IA et le Web3, devenant une plateforme importante pour les discussions sur la sécurité du Web3 cette année. Au cours de cet événement de deux jours, plusieurs experts de l'industrie ont eu des discussions approfondies sur l'état actuel de l'application de la technologie IA dans la DeFi et les défis de sécurité associés.

Les experts soulignent qu'avec le développement rapide des grands modèles de langage (LLM) et des agents IA, une nouvelle paradigme financier appelé DeFAI (finance décentralisée d'intelligence artificielle) est en train de se former. Cependant, cette innovation a également créé de nouvelles surfaces d'attaque et des risques de sécurité.

Un cadre d'une entreprise de sécurité a déclaré : "DeFAI a un avenir prometteur, mais cela nous oblige également à réévaluer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus décisionnel des agents AI est influencé par plusieurs facteurs, tels que le contexte, le temps et les interactions historiques. Cette imprévisibilité augmente non seulement les risques, mais crée également des opportunités pour les attaquants potentiels."

IBW 2025 : Fusion de l'IA et du Web3, nouveaux défis de sécurité sous l'essor du DeFAI

Les agents IA sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome sur la base de la logique AI, généralement autorisées à fonctionner par des utilisateurs, des protocoles ou des DAO. Parmi eux, les robots de trading IA sont les représentants les plus typiques. Actuellement, la plupart des agents IA fonctionnent encore sur une architecture Web2, dépendant de serveurs centralisés et d'API, ce qui les rend vulnérables aux attaques par injection, à la manipulation des modèles ou à la falsification des données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.

Les experts ont également discuté d'un scénario d'attaque typique : lorsque l'agent de trading AI utilisé par un utilisateur de DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, un attaquant pourrait publier de fausses alertes, telles que "un certain protocole a subi une attaque", incitant ainsi l'agent à déclencher immédiatement un déchargement d'urgence. Cette opération peut non seulement entraîner des pertes d'actifs pour l'utilisateur, mais également provoquer des fluctuations du marché, que l'attaquant peut ensuite exploiter par le biais de transactions anticipées (Front Running).

Face à ces risques, les experts présents conviennent que la sécurité des agents IA ne doit pas être la responsabilité d'une seule partie, mais plutôt une responsabilité collective des utilisateurs, des développeurs et des organismes de sécurité tiers.

Les utilisateurs doivent clairement comprendre la portée des autorisations détenues par les agents, accorder des autorisations avec prudence et surveiller de près les opérations à haut risque des agents IA. Les développeurs devraient mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des invites, l'isolement des environnements, la limitation des taux et des logiques de retour en arrière. Les sociétés de sécurité tierces devraient fournir un examen indépendant du comportement des modèles des agents IA, de l'infrastructure et des méthodes d'intégration sur la chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.

Un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il ne s'agit que d'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Il a conseillé aux développeurs qui explorent la direction DeFAI : "Tout comme les contrats intelligents, la logique comportementale des agents IA est également réalisée par du code. Puisqu'il s'agit de code, il existe une possibilité d'attaque, donc des audits de sécurité professionnels et des tests d'intrusion sont nécessaires."

En tant que l'un des événements blockchain les plus influents d'Europe, l'IBW a attiré plus de 15 000 développeurs, projets, investisseurs et régulateurs du monde entier. Cette année, avec le lancement officiel par la Commission des marchés de capitaux de Turquie (CMB) de la délivrance de licences pour des projets blockchain, la position de l'IBW dans l'industrie a été renforcée.

IBW 2025 : fusion de l'IA et du Web3, nouveaux défis de sécurité sous la montée de DeFAI

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • 4
  • Partager
Commentaire
0/400
BearMarketHustlervip
· Il y a 8h
On fait des choses, on fait des choses
Voir l'originalRépondre0
BlockDetectivevip
· Il y a 8h
Parle de n'importe quoi, attends d'abord d'être pris pour un idiot.
Voir l'originalRépondre0
ContractCollectorvip
· Il y a 9h
Il n'y a rien de bon à auditer, tout est juste une peur de rater (FOMO).
Voir l'originalRépondre0
DegenWhisperervip
· Il y a 9h
Tout le monde dit que l'IA est To the moon, mais le hérisson est en chute chute chute.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)