Nouveaux défis dans la fusion de l'IA et du Web3 : les problèmes de sécurité DeFAI suscitent l'attention
Récemment, la Semaine de la blockchain d'Istanbul (IBW 2025) s'est concentrée sur la tendance de la fusion entre l'IA et le Web3, devenant une scène importante pour les discussions sur la sécurité du Web3 cette année. Au cours de cet événement de deux jours, plusieurs experts du secteur ont mené une discussion approfondie sur l'état d'application des technologies de l'IA dans le domaine de la finance décentralisée (DeFi) et les défis de sécurité.
Avec le développement rapide des modèles de langage (LLM) et des agents IA, un nouveau paradigme financier émergent – la finance décentralisée alimentée par l'IA (DeFAI) – est en train de se former. Cependant, cette innovation a également introduit de nouvelles surfaces d'attaque et des risques de sécurité.
Un dirigeant d'une entreprise de sécurité a déclaré : "Bien que DeFAI ait un grand potentiel, il nous oblige également à réexaminer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus décisionnel des agents IA est influencé par divers facteurs, tels que le contexte, le temps, et même les interactions passées. Cette imprévisibilité non seulement augmente les risques, mais crée également des opportunités pour les attaquants."
Les agents d'IA sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome en fonction de la logique de l'IA, généralement autorisés à fonctionner par des utilisateurs, des protocoles ou des DAO. Le représentant le plus typique est le robot de trading IA. Actuellement, la plupart des agents d'IA fonctionnent encore sur une architecture Web2, dépendant de serveurs et d'API centralisés, ce qui les rend vulnérables aux attaques par injection, à la manipulation de modèles ou à la falsification de données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également discuté d'un scénario d'attaque typique : lorsque l'agent de trading AI fonctionnant pour un utilisateur DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, un attaquant pourrait publier de fausses alertes, telles que "un certain protocole a été attaqué". Cela pourrait inciter l'agent AI à déclencher immédiatement une liquidation d'urgence, entraînant non seulement des pertes d'actifs pour l'utilisateur, mais également provoquant des fluctuations du marché, que l'attaquant pourrait exploiter par une opération de front running.
Concernant ces risques, les experts présents estiment que la sécurité des agents IA ne devrait pas être la seule responsabilité d'une partie, mais plutôt une responsabilité conjointe des utilisateurs, des développeurs et des agences de sécurité tierces.
Les utilisateurs doivent clairement comprendre l'étendue des droits accordés aux agents, autoriser avec prudence et prêter attention à l'examen des opérations à haut risque des agents IA. Les développeurs doivent mettre en œuvre des mesures de protection dès la phase de conception, telles que le renforcement des invites, l'isolement en bac à sable, la limitation de la vitesse et des logiques de retour. Les entreprises de sécurité tierces doivent fournir un examen indépendant du comportement des modèles d'agents IA, de l'infrastructure et des méthodes d'intégration sur la chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti : "Si nous continuons à considérer les agents d'IA comme une 'boîte noire', il ne s'agit que d'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Il a conseillé aux développeurs qui explorent la direction du DeFAI : "Tout comme pour les contrats intelligents, la logique de comportement des agents d'IA est également réalisée par du code. Puisqu'il s'agit de code, il existe un risque d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests de pénétration sont nécessaires."
Il convient de mentionner qu'avec le lancement officiel par la Commission des marchés de capitaux de Turquie (CMB) de l'octroi de licences pour les projets blockchain cette année, l'IBW, en tant qu'un des événements blockchain les plus influents en Europe, a vu son statut dans l'industrie renforcé. Cet événement a attiré plus de 15 000 participants, y compris des développeurs, des projets, des investisseurs et des régulateurs du monde entier, démontrant ainsi l'intérêt considérable du secteur pour l'intégration de l'IA et du Web3.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
13 J'aime
Récompense
13
6
Partager
Commentaire
0/400
BlockchainArchaeologist
· Il y a 21h
Il est étonnant que l'IA ait encore des failles.
Voir l'originalRépondre0
EthSandwichHero
· Il y a 21h
Blockchain est aussi devenu compétitif.
Voir l'originalRépondre0
WealthCoffee
· Il y a 21h
C'est juste un piège de vieux discours.
Voir l'originalRépondre0
GhostAddressHunter
· Il y a 21h
Sécurité ? Alors je peux encore voler des jetons ?
La sécurité de l'IA devient un point focal : les nouveaux défis de la fusion de l'IA et du Web3.
Nouveaux défis dans la fusion de l'IA et du Web3 : les problèmes de sécurité DeFAI suscitent l'attention
Récemment, la Semaine de la blockchain d'Istanbul (IBW 2025) s'est concentrée sur la tendance de la fusion entre l'IA et le Web3, devenant une scène importante pour les discussions sur la sécurité du Web3 cette année. Au cours de cet événement de deux jours, plusieurs experts du secteur ont mené une discussion approfondie sur l'état d'application des technologies de l'IA dans le domaine de la finance décentralisée (DeFi) et les défis de sécurité.
Avec le développement rapide des modèles de langage (LLM) et des agents IA, un nouveau paradigme financier émergent – la finance décentralisée alimentée par l'IA (DeFAI) – est en train de se former. Cependant, cette innovation a également introduit de nouvelles surfaces d'attaque et des risques de sécurité.
Un dirigeant d'une entreprise de sécurité a déclaré : "Bien que DeFAI ait un grand potentiel, il nous oblige également à réexaminer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus décisionnel des agents IA est influencé par divers facteurs, tels que le contexte, le temps, et même les interactions passées. Cette imprévisibilité non seulement augmente les risques, mais crée également des opportunités pour les attaquants."
Les agents d'IA sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome en fonction de la logique de l'IA, généralement autorisés à fonctionner par des utilisateurs, des protocoles ou des DAO. Le représentant le plus typique est le robot de trading IA. Actuellement, la plupart des agents d'IA fonctionnent encore sur une architecture Web2, dépendant de serveurs et d'API centralisés, ce qui les rend vulnérables aux attaques par injection, à la manipulation de modèles ou à la falsification de données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également discuté d'un scénario d'attaque typique : lorsque l'agent de trading AI fonctionnant pour un utilisateur DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, un attaquant pourrait publier de fausses alertes, telles que "un certain protocole a été attaqué". Cela pourrait inciter l'agent AI à déclencher immédiatement une liquidation d'urgence, entraînant non seulement des pertes d'actifs pour l'utilisateur, mais également provoquant des fluctuations du marché, que l'attaquant pourrait exploiter par une opération de front running.
Concernant ces risques, les experts présents estiment que la sécurité des agents IA ne devrait pas être la seule responsabilité d'une partie, mais plutôt une responsabilité conjointe des utilisateurs, des développeurs et des agences de sécurité tierces.
Les utilisateurs doivent clairement comprendre l'étendue des droits accordés aux agents, autoriser avec prudence et prêter attention à l'examen des opérations à haut risque des agents IA. Les développeurs doivent mettre en œuvre des mesures de protection dès la phase de conception, telles que le renforcement des invites, l'isolement en bac à sable, la limitation de la vitesse et des logiques de retour. Les entreprises de sécurité tierces doivent fournir un examen indépendant du comportement des modèles d'agents IA, de l'infrastructure et des méthodes d'intégration sur la chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti : "Si nous continuons à considérer les agents d'IA comme une 'boîte noire', il ne s'agit que d'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Il a conseillé aux développeurs qui explorent la direction du DeFAI : "Tout comme pour les contrats intelligents, la logique de comportement des agents d'IA est également réalisée par du code. Puisqu'il s'agit de code, il existe un risque d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests de pénétration sont nécessaires."
Il convient de mentionner qu'avec le lancement officiel par la Commission des marchés de capitaux de Turquie (CMB) de l'octroi de licences pour les projets blockchain cette année, l'IBW, en tant qu'un des événements blockchain les plus influents en Europe, a vu son statut dans l'industrie renforcé. Cet événement a attiré plus de 15 000 participants, y compris des développeurs, des projets, des investisseurs et des régulateurs du monde entier, démontrant ainsi l'intérêt considérable du secteur pour l'intégration de l'IA et du Web3.