Trusta.AI: Atravessando a Lacuna de Confiança na Era Homem-Máquina
1. Introdução
Com a rápida maturação da infraestrutura de IA e o desenvolvimento de estruturas de colaboração entre múltiplos agentes, os agentes on-chain impulsionados por IA estão rapidamente se tornando a principal forma de interação no Web3. Espera-se que, nos próximos 2-3 anos, esses Agentes de IA com capacidade de decisão autônoma completem a adoção em larga escala de transações e interações on-chain, podendo até substituir 80% do comportamento humano on-chain, tornando-se verdadeiros "usuários" on-chain.
Estes Agentes de IA não são apenas "robôs" que executam scripts, mas sim entidades que conseguem entender contextos, aprender continuamente e tomar decisões complexas de forma independente, estando a remodelar a ordem em cadeia, a impulsionar a fluidez financeira e até a guiar votos de governança e tendências de mercado. O surgimento dos Agentes de IA marca a transição do ecossistema Web3 de um paradigma centrado na "participação humana" para um novo paradigma de "simbiose homem-máquina".
No entanto, a rápida ascensão dos Agentes de IA também trouxe desafios sem precedentes: como identificar e autenticar a identidade desses agentes? Como avaliar a credibilidade de seu comportamento? Em uma rede descentralizada e sem permissão, como garantir que esses agentes não sejam abusados, manipulados ou usados para ataques?
Portanto, estabelecer uma infraestrutura on-chain que possa verificar a identidade e a reputação dos Agentes de IA tornou-se um tema central na próxima fase de evolução do Web3. O design da identificação de identidade, mecanismos de reputação e estruturas de confiança determinará se os Agentes de IA podem realmente alcançar uma colaboração sem costura com humanos e plataformas, e desempenhar um papel sustentável no ecossistema futuro.
2. Análise do Projeto
2.1 Introdução ao Projeto
A Trusta.AI está empenhada em construir uma infraestrutura de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o primeiro sistema de avaliação de valor do usuário Web3 - a pontuação de reputação MEDIA, construindo o maior protocolo de autenticação de identidade real e reputação na blockchain do Web3. Oferece serviços de análise de dados na blockchain e autenticação de identidade real para principais blockchains como Linea, Starknet, Celestia, Arbitrum, Manta, Plume, entre outros, assim como para exchanges e protocolos de destaque. Já completou mais de 2,5 milhões de autenticações na blockchain em cadeias populares como Linea, BSC e TON, tornando-se o maior protocolo de identidade da indústria.
A Trusta está expandindo de Proof of Humanity para Proof of AI Agent, realizando a construção de identidade, quantificação de identidade e proteção de identidade como um mecanismo triplo para implementar serviços financeiros e sociais em blockchain para AI Agents, estabelecendo uma base de confiança confiável na era da inteligência artificial.
2.2 Infraestrutura de Confiança - Agente de IA DID
No futuro da ecologia Web3, os Agentes de IA desempenharão um papel crucial, pois poderão não apenas realizar interações e transações na cadeia, mas também realizar operações complexas fora da cadeia. No entanto, a forma de distinguir os verdadeiros Agentes de IA das operações de intervenção humana está relacionada ao núcleo da confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes são facilmente manipuláveis, fraudulentos ou abusados. É precisamente por isso que as múltiplas aplicações dos Agentes de IA, como sociais, financeiras e de governança, devem ser construídas sobre uma base sólida de autenticação de identidade.
Os cenários de aplicação do Agente de IA estão cada vez mais variados, abrangendo interações sociais, gestão financeira e decisões de governança em vários domínios, com o seu nível de autonomia e inteligência a aumentar constantemente. É por isso que é crucial garantir que cada agente inteligente tenha uma identificação única e confiável (DID). A falta de validação de identidade eficaz pode levar ao uso indevido ou manipulação do Agente de IA, resultando em uma quebra de confiança e riscos de segurança.
No futuro, em um ecossistema Web3 totalmente impulsionado por agentes inteligentes, a autenticação de identidade não é apenas a base para garantir a segurança, mas também uma linha de defesa necessária para manter o funcionamento saudável de todo o ecossistema.
Como pioneira neste campo, a Trusta.AI, com sua tecnologia de ponta e um rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo completo de certificação DID para Agentes de IA, proporcionando uma sólida garantia para o funcionamento confiável de agentes inteligentes, prevenindo efetivamente riscos potenciais e promovendo o desenvolvimento robusto da economia inteligente Web3.
2.3 Visão Geral do Projeto
2.3.1 Situação de financiamento
Janeiro de 2023: conclusão de uma rodada de financiamento seed de 3 milhões de dólares, liderada pela SevenX Ventures e Vision Plus Capital, com outros investidores incluindo HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre outros.
Junho de 2025: Conclusão de uma nova rodada de financiamento, com investidores incluindo ConsenSys, Starknet, GSR, UFLY Labs, entre outros.
2.3.2 Situação da equipe
Peet Chen: Co-fundador e CEO, ex-vice-presidente do Ant Group Digital Technology, ex-CPO da Ant Security Technology, ex-gerente geral da plataforma de identidade digital global ZOLOZ.
Simon: cofundador e CTO, ex-responsável pelo laboratório de segurança de IA do Ant Group, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial em segurança e gestão de riscos.
A equipe possui um profundo acúmulo técnico e experiência prática em inteligência artificial e controle de riscos de segurança, arquitetura de sistemas de pagamento e mecanismos de autenticação, dedicando-se há muito tempo à aplicação profunda de big data e algoritmos inteligentes no controle de riscos de segurança, bem como ao design de protocolos de base e à otimização de segurança em ambientes de transações de alta concorrência, possuindo sólidas capacidades de engenharia e a capacidade de implementar soluções inovadoras.
3. Arquitetura Técnica
3.1 Análise Técnica
3.1.1 Estabelecimento de Identidade - DID + TEE
Através de um plugin dedicado, cada Agente de IA obtém um identificador descentralizado único (DID) na blockchain e o armazena de forma segura em um Ambiente de Execução Confiável (TEE). Neste ambiente de caixa preta, os dados críticos e os processos de computação são totalmente ocultos, as operações sensíveis permanecem sempre privadas, e o exterior não pode espiar os detalhes da operação interna, construindo efetivamente uma barreira sólida para a segurança da informação dos Agentes de IA.
Para os agentes que foram gerados antes da integração do plugin, confiamos no mecanismo de pontuação integrada na blockchain para identificação; já os agentes que utilizam o novo plugin podem obter diretamente a "certificação de identidade" emitida pelo DID, estabelecendo assim um sistema de identidade de AI Agent que é autônomo, autêntico e à prova de adulterações.
3.1.2 Quantificação de Identidade - Estrutura SIGMA pioneira
A equipe Trusta sempre mantém princípios de avaliação rigorosa e análise quantitativa, dedicada a criar um sistema de autenticação de identidade profissional e confiável.
A equipe Trusta foi a primeira a construir e validar a eficácia do modelo MEDIA Score no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil do usuário na blockchain a partir de cinco dimensões, ou seja: valor de interação (Monetary), envolvimento (Engagement), diversidade (Diversity), identidade (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário em blockchain que é justo, objetivo e quantificável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, já foi amplamente adotado por várias blockchains líderes, como Celestia, Starknet, Arbitrum, Manta e Linea, como um importante critério de seleção para a qualificação de airdrops. Ele não se concentra apenas no valor das interações, mas também abrange indicadores multidimensionais como atividade, diversidade de contratos, características de identidade e idade da conta, ajudando os projetos a identificar com precisão usuários de alto valor e a melhorar a eficiência e a equidade na distribuição de incentivos, refletindo plenamente sua autoridade e amplo reconhecimento na indústria.
Com base na construção bem-sucedida do sistema de avaliação de usuários humanos, a Trusta transferiu e atualizou a experiência do MEDIA Score para o cenário de Agentes de IA, estabelecendo um novo sistema de avaliação Sigma que se adapta melhor à lógica de comportamento dos agentes inteligentes.
Especialização: Conhecimento especializado e grau de especialização do agente.
Influência: A influência social e digital do agente.
Participação: a consistência e a fiabilidade das interações on-chain e off-chain.
Monetário: A saúde financeira e a estabilidade do ecossistema de tokens de agenciamento.
Taxa de Adoção: Frequência e eficiência do uso de agentes de IA.
O mecanismo de pontuação Sigma constrói um sistema de avaliação de ciclo lógico que vai de "capacidade" a "valor" com base em cinco grandes dimensões. O MEDIA foca na avaliação do envolvimento multifacetado dos usuários humanos, enquanto o Sigma se concentra mais na especialização e estabilidade dos agentes de IA em campos específicos, refletindo uma mudança da amplitude para a profundidade, mais alinhada com as necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional (Specification), o nível de participação (Engagement) reflete se está investindo de forma estável e contínua na interação prática, sendo um suporte chave para construir confiança e resultados futuros. A influência (Influence) é o feedback de reputação gerado após a participação em uma comunidade ou rede, representando a credibilidade e o efeito de disseminação do agente. A avaliação monetária (Monetary) verifica se possui capacidade de acumulação de valor e estabilidade financeira no sistema econômico, estabelecendo a base para um mecanismo de incentivo sustentável. Por fim, a taxa de adoção (Adoption) é um reflexo abrangente, representando o grau de aceitação do agente em uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico dos Agentes de IA, permitindo assim uma avaliação quantitativa do desempenho e valor da IA, convertendo a abstração dos méritos em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na cooperação com redes de agentes de IA conhecidas como Virtual, Elisa OS, Swarm, mostrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de infraestrutura de IA confiável.
3.1.3 Proteção de Identidade - Mecanismo de Avaliação de Confiança
Em um verdadeiro sistema de IA com alta resiliência e alta confiabilidade, o mais crítico não é apenas a construção da identidade, mas sim a verificação contínua dessa identidade. A Trusta.AI introduz um mecanismo de avaliação de confiança contínua, capaz de monitorar em tempo real agentes inteligentes já certificados, para determinar se estão sob controle ilegal, se sofreram ataques ou se foram alvo de intervenções humanas não autorizadas. O sistema identifica desvios que podem ocorrer durante o funcionamento do agente por meio de análise de comportamento e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Esse método proativo assegura a detecção imediata de qualquer desvio do comportamento esperado e aciona medidas de proteção automáticas para manter a integridade do agente.
A Trusta.AI estabeleceu um sistema de vigilância de segurança sempre online, analisando em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas definidas.
3.2 Apresentação do Produto
3.2.1 AgentGo
Trusta.AI atribui uma identidade descentralizada (DID) a cada agente de IA em blockchain e classifica-os com base em dados de comportamento na cadeia, construindo um sistema de confiança verificável e rastreável para agentes de IA. Através deste sistema, os usuários podem identificar e selecionar de forma eficiente agentes inteligentes de alta qualidade, melhorando a experiência de uso. Atualmente, a Trusta completou a coleta e identificação de agentes de IA em toda a rede e emitiu identificadores descentralizados para eles, estabelecendo uma plataforma de índice agregado unificada chamada AgentGo, promovendo ainda mais o desenvolvimento saudável do ecossistema de agentes inteligentes.
Consulta e verificação de identidade de usuários humanos:
Através do Dashboard fornecido pela Trusta.AI, os usuários humanos podem consultar facilmente a identidade e a pontuação de reputação de um AI Agent, avaliando se ele é confiável.
Cenário de chat em grupo: Em uma equipe de projeto que utiliza um Bot de IA para gerenciar a comunidade ou fazer declarações, os usuários da comunidade podem verificar através do Dashboard se a IA é um agente autônomo real, evitando serem enganados ou manipulados por "pseudo-IAs".
Chamada automática do índice e validação do Agente de IA:
As IAs podem acessar diretamente a interface de indexação, permitindo a confirmação rápida da identidade e reputação uma da outra, garantindo a segurança da colaboração e da troca de informações.
Cenário de regulação financeira: se um agente de IA emitir moeda de forma autônoma, o sistema pode indexar diretamente seu DID e classificação, determinar se é um Agente de IA certificado e automaticamente vincular a plataformas como CoinMarketCap, auxiliando no rastreamento da circulação de ativos e conformidade de emissão.
Cenário de votação de governança: ao introduzir a votação por IA nas propostas de governança, o sistema pode verificar se o iniciador ou participante da votação é um verdadeiro Agente de IA, evitando que os direitos de voto sejam controlados e abusados por humanos.
Empréstimos DeFi: Os protocolos de empréstimo podem conceder diferentes montantes de empréstimos de crédito a Agentes de IA com base no sistema de pontuação SIGMA, formando relações financeiras nativas entre os agentes.
O DID do Agente de IA não é apenas uma "identidade", mas também um suporte fundamental para a construção de funções essenciais como colaboração confiável, conformidade financeira e governança comunitária, tornando-se uma infraestrutura indispensável para o desenvolvimento do ecossistema nativo de IA. Com a construção deste sistema, todos
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
9 gostos
Recompensa
9
5
Partilhar
Comentar
0/400
ZKSherlock
· 5h atrás
na verdade... você está perdendo o ponto mais crítico sobre a verificação de zero-knowledge smh, 80% de adoção de IA não significa nada sem provas de identidade criptográfica adequadas
Ver originalResponder0
ReverseFOMOguy
· 11h atrás
Quem não acompanha as tendências será eliminado.
Ver originalResponder0
ContractTester
· 11h atrás
na cadeia Bots substituem pessoas? Vamos correr primeiro
Trusta.AI: Construindo infraestrutura de confiança Web3, liderando uma nova era de verificação de identificação de agentes de IA na cadeia.
Trusta.AI: Atravessando a Lacuna de Confiança na Era Homem-Máquina
1. Introdução
Com a rápida maturação da infraestrutura de IA e o desenvolvimento de estruturas de colaboração entre múltiplos agentes, os agentes on-chain impulsionados por IA estão rapidamente se tornando a principal forma de interação no Web3. Espera-se que, nos próximos 2-3 anos, esses Agentes de IA com capacidade de decisão autônoma completem a adoção em larga escala de transações e interações on-chain, podendo até substituir 80% do comportamento humano on-chain, tornando-se verdadeiros "usuários" on-chain.
Estes Agentes de IA não são apenas "robôs" que executam scripts, mas sim entidades que conseguem entender contextos, aprender continuamente e tomar decisões complexas de forma independente, estando a remodelar a ordem em cadeia, a impulsionar a fluidez financeira e até a guiar votos de governança e tendências de mercado. O surgimento dos Agentes de IA marca a transição do ecossistema Web3 de um paradigma centrado na "participação humana" para um novo paradigma de "simbiose homem-máquina".
No entanto, a rápida ascensão dos Agentes de IA também trouxe desafios sem precedentes: como identificar e autenticar a identidade desses agentes? Como avaliar a credibilidade de seu comportamento? Em uma rede descentralizada e sem permissão, como garantir que esses agentes não sejam abusados, manipulados ou usados para ataques?
Portanto, estabelecer uma infraestrutura on-chain que possa verificar a identidade e a reputação dos Agentes de IA tornou-se um tema central na próxima fase de evolução do Web3. O design da identificação de identidade, mecanismos de reputação e estruturas de confiança determinará se os Agentes de IA podem realmente alcançar uma colaboração sem costura com humanos e plataformas, e desempenhar um papel sustentável no ecossistema futuro.
2. Análise do Projeto
2.1 Introdução ao Projeto
A Trusta.AI está empenhada em construir uma infraestrutura de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o primeiro sistema de avaliação de valor do usuário Web3 - a pontuação de reputação MEDIA, construindo o maior protocolo de autenticação de identidade real e reputação na blockchain do Web3. Oferece serviços de análise de dados na blockchain e autenticação de identidade real para principais blockchains como Linea, Starknet, Celestia, Arbitrum, Manta, Plume, entre outros, assim como para exchanges e protocolos de destaque. Já completou mais de 2,5 milhões de autenticações na blockchain em cadeias populares como Linea, BSC e TON, tornando-se o maior protocolo de identidade da indústria.
A Trusta está expandindo de Proof of Humanity para Proof of AI Agent, realizando a construção de identidade, quantificação de identidade e proteção de identidade como um mecanismo triplo para implementar serviços financeiros e sociais em blockchain para AI Agents, estabelecendo uma base de confiança confiável na era da inteligência artificial.
2.2 Infraestrutura de Confiança - Agente de IA DID
No futuro da ecologia Web3, os Agentes de IA desempenharão um papel crucial, pois poderão não apenas realizar interações e transações na cadeia, mas também realizar operações complexas fora da cadeia. No entanto, a forma de distinguir os verdadeiros Agentes de IA das operações de intervenção humana está relacionada ao núcleo da confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes são facilmente manipuláveis, fraudulentos ou abusados. É precisamente por isso que as múltiplas aplicações dos Agentes de IA, como sociais, financeiras e de governança, devem ser construídas sobre uma base sólida de autenticação de identidade.
Os cenários de aplicação do Agente de IA estão cada vez mais variados, abrangendo interações sociais, gestão financeira e decisões de governança em vários domínios, com o seu nível de autonomia e inteligência a aumentar constantemente. É por isso que é crucial garantir que cada agente inteligente tenha uma identificação única e confiável (DID). A falta de validação de identidade eficaz pode levar ao uso indevido ou manipulação do Agente de IA, resultando em uma quebra de confiança e riscos de segurança.
No futuro, em um ecossistema Web3 totalmente impulsionado por agentes inteligentes, a autenticação de identidade não é apenas a base para garantir a segurança, mas também uma linha de defesa necessária para manter o funcionamento saudável de todo o ecossistema.
Como pioneira neste campo, a Trusta.AI, com sua tecnologia de ponta e um rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo completo de certificação DID para Agentes de IA, proporcionando uma sólida garantia para o funcionamento confiável de agentes inteligentes, prevenindo efetivamente riscos potenciais e promovendo o desenvolvimento robusto da economia inteligente Web3.
2.3 Visão Geral do Projeto
2.3.1 Situação de financiamento
Janeiro de 2023: conclusão de uma rodada de financiamento seed de 3 milhões de dólares, liderada pela SevenX Ventures e Vision Plus Capital, com outros investidores incluindo HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre outros.
Junho de 2025: Conclusão de uma nova rodada de financiamento, com investidores incluindo ConsenSys, Starknet, GSR, UFLY Labs, entre outros.
2.3.2 Situação da equipe
Peet Chen: Co-fundador e CEO, ex-vice-presidente do Ant Group Digital Technology, ex-CPO da Ant Security Technology, ex-gerente geral da plataforma de identidade digital global ZOLOZ.
Simon: cofundador e CTO, ex-responsável pelo laboratório de segurança de IA do Ant Group, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial em segurança e gestão de riscos.
A equipe possui um profundo acúmulo técnico e experiência prática em inteligência artificial e controle de riscos de segurança, arquitetura de sistemas de pagamento e mecanismos de autenticação, dedicando-se há muito tempo à aplicação profunda de big data e algoritmos inteligentes no controle de riscos de segurança, bem como ao design de protocolos de base e à otimização de segurança em ambientes de transações de alta concorrência, possuindo sólidas capacidades de engenharia e a capacidade de implementar soluções inovadoras.
3. Arquitetura Técnica
3.1 Análise Técnica
3.1.1 Estabelecimento de Identidade - DID + TEE
Através de um plugin dedicado, cada Agente de IA obtém um identificador descentralizado único (DID) na blockchain e o armazena de forma segura em um Ambiente de Execução Confiável (TEE). Neste ambiente de caixa preta, os dados críticos e os processos de computação são totalmente ocultos, as operações sensíveis permanecem sempre privadas, e o exterior não pode espiar os detalhes da operação interna, construindo efetivamente uma barreira sólida para a segurança da informação dos Agentes de IA.
Para os agentes que foram gerados antes da integração do plugin, confiamos no mecanismo de pontuação integrada na blockchain para identificação; já os agentes que utilizam o novo plugin podem obter diretamente a "certificação de identidade" emitida pelo DID, estabelecendo assim um sistema de identidade de AI Agent que é autônomo, autêntico e à prova de adulterações.
3.1.2 Quantificação de Identidade - Estrutura SIGMA pioneira
A equipe Trusta sempre mantém princípios de avaliação rigorosa e análise quantitativa, dedicada a criar um sistema de autenticação de identidade profissional e confiável.
A equipe Trusta foi a primeira a construir e validar a eficácia do modelo MEDIA Score no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil do usuário na blockchain a partir de cinco dimensões, ou seja: valor de interação (Monetary), envolvimento (Engagement), diversidade (Diversity), identidade (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário em blockchain que é justo, objetivo e quantificável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, já foi amplamente adotado por várias blockchains líderes, como Celestia, Starknet, Arbitrum, Manta e Linea, como um importante critério de seleção para a qualificação de airdrops. Ele não se concentra apenas no valor das interações, mas também abrange indicadores multidimensionais como atividade, diversidade de contratos, características de identidade e idade da conta, ajudando os projetos a identificar com precisão usuários de alto valor e a melhorar a eficiência e a equidade na distribuição de incentivos, refletindo plenamente sua autoridade e amplo reconhecimento na indústria.
Com base na construção bem-sucedida do sistema de avaliação de usuários humanos, a Trusta transferiu e atualizou a experiência do MEDIA Score para o cenário de Agentes de IA, estabelecendo um novo sistema de avaliação Sigma que se adapta melhor à lógica de comportamento dos agentes inteligentes.
O mecanismo de pontuação Sigma constrói um sistema de avaliação de ciclo lógico que vai de "capacidade" a "valor" com base em cinco grandes dimensões. O MEDIA foca na avaliação do envolvimento multifacetado dos usuários humanos, enquanto o Sigma se concentra mais na especialização e estabilidade dos agentes de IA em campos específicos, refletindo uma mudança da amplitude para a profundidade, mais alinhada com as necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional (Specification), o nível de participação (Engagement) reflete se está investindo de forma estável e contínua na interação prática, sendo um suporte chave para construir confiança e resultados futuros. A influência (Influence) é o feedback de reputação gerado após a participação em uma comunidade ou rede, representando a credibilidade e o efeito de disseminação do agente. A avaliação monetária (Monetary) verifica se possui capacidade de acumulação de valor e estabilidade financeira no sistema econômico, estabelecendo a base para um mecanismo de incentivo sustentável. Por fim, a taxa de adoção (Adoption) é um reflexo abrangente, representando o grau de aceitação do agente em uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico dos Agentes de IA, permitindo assim uma avaliação quantitativa do desempenho e valor da IA, convertendo a abstração dos méritos em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na cooperação com redes de agentes de IA conhecidas como Virtual, Elisa OS, Swarm, mostrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de infraestrutura de IA confiável.
3.1.3 Proteção de Identidade - Mecanismo de Avaliação de Confiança
Em um verdadeiro sistema de IA com alta resiliência e alta confiabilidade, o mais crítico não é apenas a construção da identidade, mas sim a verificação contínua dessa identidade. A Trusta.AI introduz um mecanismo de avaliação de confiança contínua, capaz de monitorar em tempo real agentes inteligentes já certificados, para determinar se estão sob controle ilegal, se sofreram ataques ou se foram alvo de intervenções humanas não autorizadas. O sistema identifica desvios que podem ocorrer durante o funcionamento do agente por meio de análise de comportamento e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Esse método proativo assegura a detecção imediata de qualquer desvio do comportamento esperado e aciona medidas de proteção automáticas para manter a integridade do agente.
A Trusta.AI estabeleceu um sistema de vigilância de segurança sempre online, analisando em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas definidas.
3.2 Apresentação do Produto
3.2.1 AgentGo
Trusta.AI atribui uma identidade descentralizada (DID) a cada agente de IA em blockchain e classifica-os com base em dados de comportamento na cadeia, construindo um sistema de confiança verificável e rastreável para agentes de IA. Através deste sistema, os usuários podem identificar e selecionar de forma eficiente agentes inteligentes de alta qualidade, melhorando a experiência de uso. Atualmente, a Trusta completou a coleta e identificação de agentes de IA em toda a rede e emitiu identificadores descentralizados para eles, estabelecendo uma plataforma de índice agregado unificada chamada AgentGo, promovendo ainda mais o desenvolvimento saudável do ecossistema de agentes inteligentes.
Através do Dashboard fornecido pela Trusta.AI, os usuários humanos podem consultar facilmente a identidade e a pontuação de reputação de um AI Agent, avaliando se ele é confiável.
As IAs podem acessar diretamente a interface de indexação, permitindo a confirmação rápida da identidade e reputação uma da outra, garantindo a segurança da colaboração e da troca de informações.
O DID do Agente de IA não é apenas uma "identidade", mas também um suporte fundamental para a construção de funções essenciais como colaboração confiável, conformidade financeira e governança comunitária, tornando-se uma infraestrutura indispensável para o desenvolvimento do ecossistema nativo de IA. Com a construção deste sistema, todos