Novos desafios na fusão da IA e Web3: Problemas de segurança da DeFAI levantam preocupação
Recentemente, a Semana do Blockchain de Istambul (IBW 2025) focou nas tendências de fusão entre AI e Web3, tornando-se um importante palco para discussões sobre segurança do Web3 este ano. Durante os dois dias de evento, vários especialistas da indústria se aprofundaram nas aplicações atuais da tecnologia AI no campo das finanças descentralizadas (DeFi) e nos desafios de segurança.
Com o rápido desenvolvimento dos grandes modelos de linguagem (LLM) e dos agentes de IA, está a emergir um novo paradigma financeiro — a Finança Descentralizada com IA (DeFAI). No entanto, esta inovação também trouxe novas superfícies de ataque e riscos à segurança.
Um executivo de uma empresa de segurança apontou: "Embora o DeFAI tenha um grande potencial, também nos força a reavaliar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado por diversos fatores, como contexto, tempo e até interações históricas. Essa imprevisibilidade não só aumenta os riscos, mas também cria oportunidades para os atacantes."
Os agentes de IA são essencialmente entidades inteligentes capazes de tomar decisões e executar ações de forma autônoma com base na lógica da IA, geralmente autorizados a operar por usuários, protocolos ou DAOs. O exemplo mais típico são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA ainda opera sobre a arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a ameaças como injeções, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, isso pode levar não apenas a perdas financeiras, mas também pode afetar a estabilidade de todo o protocolo.
Os especialistas também discutiram um cenário típico de ataque: quando o agente de negociação de IA operado por um utilizador de DeFi está a monitorizar mensagens nas redes sociais como sinais de negociação, um atacante pode publicar alarmes falsos, como "um determinado protocolo está a ser atacado". Isso pode induzir o agente de IA a iniciar imediatamente uma liquidação de emergência, resultando não apenas em perdas de ativos para o utilizador, mas também podendo provocar volatilidade no mercado, que pode ser explorada pelo atacante através de negociação antecipada (Front Running).
Para esses riscos, os especialistas presentes concordam que a segurança dos agentes de IA não deve ser responsabilidade de uma única parte, mas sim uma responsabilidade conjunta dos usuários, desenvolvedores e instituições de segurança de terceiros.
Os usuários precisam entender claramente o alcance das permissões concedidas ao agente, autorizar com cautela e prestar atenção à revisão de operações de alto risco do agente de IA. Os desenvolvedores devem implementar medidas de defesa já na fase de design, como reforço de prompt, isolamento em sandbox, limitação de taxa e lógica de fallback. Empresas de segurança de terceiros devem fornecer auditoria independente sobre o comportamento do modelo do agente de IA, infraestrutura e forma de integração em blockchain, e colaborar com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Um especialista em segurança alertou: "Se continuarmos a tratar os agentes de IA como uma 'caixa preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Ele sugeriu aos desenvolvedores que estão explorando a direção do DeFAI: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que é código, existe a possibilidade de ser atacado, por isso é necessário realizar auditorias de segurança profissionais e testes de penetração."
Vale a pena mencionar que, este ano, com o lançamento oficial de licenças para projetos de blockchain pela Comissão do Mercado de Capitais da Turquia (CMB), o IBW, como um dos eventos de blockchain mais influentes da Europa, teve sua posição na indústria ainda mais elevada. Este evento atraiu mais de 15.000 participantes, incluindo desenvolvedores, equipes de projeto, investidores e reguladores de todo o mundo, demonstrando plenamente o alto interesse da indústria na fusão de IA e Web3.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
A Segurança da IA torna-se um foco: novos desafios na fusão da IA com o Web3
Novos desafios na fusão da IA e Web3: Problemas de segurança da DeFAI levantam preocupação
Recentemente, a Semana do Blockchain de Istambul (IBW 2025) focou nas tendências de fusão entre AI e Web3, tornando-se um importante palco para discussões sobre segurança do Web3 este ano. Durante os dois dias de evento, vários especialistas da indústria se aprofundaram nas aplicações atuais da tecnologia AI no campo das finanças descentralizadas (DeFi) e nos desafios de segurança.
Com o rápido desenvolvimento dos grandes modelos de linguagem (LLM) e dos agentes de IA, está a emergir um novo paradigma financeiro — a Finança Descentralizada com IA (DeFAI). No entanto, esta inovação também trouxe novas superfícies de ataque e riscos à segurança.
Um executivo de uma empresa de segurança apontou: "Embora o DeFAI tenha um grande potencial, também nos força a reavaliar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado por diversos fatores, como contexto, tempo e até interações históricas. Essa imprevisibilidade não só aumenta os riscos, mas também cria oportunidades para os atacantes."
Os agentes de IA são essencialmente entidades inteligentes capazes de tomar decisões e executar ações de forma autônoma com base na lógica da IA, geralmente autorizados a operar por usuários, protocolos ou DAOs. O exemplo mais típico são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA ainda opera sobre a arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a ameaças como injeções, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, isso pode levar não apenas a perdas financeiras, mas também pode afetar a estabilidade de todo o protocolo.
Os especialistas também discutiram um cenário típico de ataque: quando o agente de negociação de IA operado por um utilizador de DeFi está a monitorizar mensagens nas redes sociais como sinais de negociação, um atacante pode publicar alarmes falsos, como "um determinado protocolo está a ser atacado". Isso pode induzir o agente de IA a iniciar imediatamente uma liquidação de emergência, resultando não apenas em perdas de ativos para o utilizador, mas também podendo provocar volatilidade no mercado, que pode ser explorada pelo atacante através de negociação antecipada (Front Running).
Para esses riscos, os especialistas presentes concordam que a segurança dos agentes de IA não deve ser responsabilidade de uma única parte, mas sim uma responsabilidade conjunta dos usuários, desenvolvedores e instituições de segurança de terceiros.
Os usuários precisam entender claramente o alcance das permissões concedidas ao agente, autorizar com cautela e prestar atenção à revisão de operações de alto risco do agente de IA. Os desenvolvedores devem implementar medidas de defesa já na fase de design, como reforço de prompt, isolamento em sandbox, limitação de taxa e lógica de fallback. Empresas de segurança de terceiros devem fornecer auditoria independente sobre o comportamento do modelo do agente de IA, infraestrutura e forma de integração em blockchain, e colaborar com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Um especialista em segurança alertou: "Se continuarmos a tratar os agentes de IA como uma 'caixa preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Ele sugeriu aos desenvolvedores que estão explorando a direção do DeFAI: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que é código, existe a possibilidade de ser atacado, por isso é necessário realizar auditorias de segurança profissionais e testes de penetração."
Vale a pena mencionar que, este ano, com o lançamento oficial de licenças para projetos de blockchain pela Comissão do Mercado de Capitais da Turquia (CMB), o IBW, como um dos eventos de blockchain mais influentes da Europa, teve sua posição na indústria ainda mais elevada. Este evento atraiu mais de 15.000 participantes, incluindo desenvolvedores, equipes de projeto, investidores e reguladores de todo o mundo, demonstrando plenamente o alto interesse da indústria na fusão de IA e Web3.