DeFAI en ascenso: Desafíos de seguridad y estrategias de respuesta de los agentes de IA en las finanzas de Web3

robot
Generación de resúmenes en curso

La fusión de la IA y Web3: nuevos desafíos de seguridad traídos por el auge de DeFAI

Recientemente, la Semana de Blockchain de Estambul (IBW 2025) se centró en la tendencia de la fusión entre IA y Web3, convirtiéndose en una importante plataforma para la discusión de la seguridad de Web3 este año. Durante el evento de dos días, varios expertos de la industria llevaron a cabo discusiones profundas sobre el estado actual de la aplicación de la tecnología IA en DeFi y los desafíos de seguridad.

Los expertos señalan que, con el rápido desarrollo de los modelos de lenguaje grandes (LLM) y los agentes de IA, se está formando gradualmente un nuevo paradigma financiero llamado DeFAI (Finanzas de Inteligencia Artificial Descentralizada). Sin embargo, esta innovación también ha traído nuevas superficies de ataque y riesgos de seguridad.

Un alto ejecutivo de una empresa de seguridad declaró: "DeFAI tiene un gran potencial, pero también nos obliga a reevaluar los mecanismos de confianza en los sistemas descentralizados. A diferencia de los contratos inteligentes basados en lógica fija, el proceso de toma de decisiones de los agentes de IA se ve afectado por múltiples factores, como el contexto, el tiempo y las interacciones históricas. Esta imprevisibilidad no solo aumenta el riesgo, sino que también crea oportunidades para posibles atacantes."

IBW 2025: La fusión de AI y Web3, nuevos desafíos de seguridad bajo el auge de DeFAI

Los agentes de IA son esencialmente entidades inteligentes que pueden tomar decisiones y ejecutar acciones de manera autónoma basándose en la lógica de IA, y generalmente son autorizados para operar por usuarios, protocolos o DAOs. Entre ellos, los robots de comercio de IA son los más representativos. Actualmente, la mayoría de los agentes de IA aún funcionan en una arquitectura Web2, dependiendo de servidores centralizados y API, lo que los hace vulnerables a amenazas como ataques de inyección, manipulación de modelos o alteración de datos. Una vez que son secuestrados, no solo pueden causar pérdidas de fondos, sino que también pueden afectar la estabilidad de todo el protocolo.

Los expertos también discutieron un escenario de ataque típico: cuando un agente de trading de IA que opera un usuario de DeFi está monitoreando mensajes en redes sociales como señales de trading, un atacante podría publicar alarmas falsas, como "un protocolo está siendo atacado", lo que induciría al agente a iniciar inmediatamente una liquidación de emergencia. Esta operación no solo podría resultar en pérdidas de activos para el usuario, sino que también podría provocar volatilidad en el mercado, que el atacante podría aprovechar mediante el frontrunning.

En respuesta a estos riesgos, los expertos presentes coincidieron en que la seguridad de los agentes de IA no debería ser responsabilidad de una sola parte, sino una responsabilidad compartida entre los usuarios, los desarrolladores y las agencias de seguridad de terceros.

Los usuarios deben comprender claramente el alcance de los permisos que tiene el agente y otorgarlos con cautela, prestando especial atención a las operaciones de alto riesgo del agente de IA. Los desarrolladores, por su parte, deben implementar medidas de defensa desde la fase de diseño, como refuerzo de palabras clave, aislamiento en sandbox, limitación de tasa y lógica de retroceso. Las empresas de seguridad de terceros deben proporcionar una revisión independiente del comportamiento del modelo del agente de IA, la infraestructura y la forma de integración en la cadena, y trabajar con desarrolladores y usuarios para identificar riesgos y proponer medidas de mitigación.

Un experto en seguridad advirtió: "Si seguimos considerando a los agentes de IA como una 'caja negra', los accidentes de seguridad en el mundo real son solo cuestión de tiempo." Sugerió a los desarrolladores que están explorando la dirección de DeFAI: "Al igual que los contratos inteligentes, la lógica de comportamiento de los agentes de IA también se implementa mediante código. Dado que es código, existe la posibilidad de ser atacado, por lo que es necesario realizar auditorías de seguridad profesionales y pruebas de penetración."

Como uno de los eventos de blockchain más influyentes de Europa, el IBW ha atraído a más de 15,000 desarrolladores, promotores de proyectos, inversores y reguladores de todo el mundo. Este año, con el lanzamiento oficial por parte de la Comisión de Mercados de Capitales de Turquía (CMB) de la emisión de licencias para proyectos de blockchain, la posición del IBW en la industria se ha fortalecido aún más.

IBW 2025: La fusión de AI y Web3, nuevos desafíos de seguridad bajo el auge del DeFAI

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 4
  • Compartir
Comentar
0/400
BearMarketHustlervip
· hace8h
Haciendo cosas, ¿eh?
Ver originalesResponder0
BlockDetectivevip
· hace8h
Habla de tonterías, primero espera a que te tomen por tonto.
Ver originalesResponder0
ContractCollectorvip
· hace9h
¿Qué hay que auditar? Todo es miedo a perderse algo (FOMO) y ya está.
Ver originalesResponder0
DegenWhisperervip
· hace9h
Todos dicen que la IA está To the moon, pero el erizo está en caída, caída, caída.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)