Trusta.AI: Superando la brecha de confianza en la era humano-máquina
1. Introducción
Con la rápida madurez de la infraestructura de IA y el desarrollo de marcos de colaboración de múltiples agentes, los agentes en cadena impulsados por IA están rápidamente convirtiéndose en la fuerza principal de la interacción en Web3. Se espera que en los próximos 2-3 años, estos agentes de IA con capacidad de toma de decisiones autónomas adopten masivamente las transacciones e interacciones en cadena, e incluso podrían reemplazar el 80% de los comportamientos humanos en cadena, convirtiéndose en verdaderos "usuarios" en cadena.
Estos Agentes de IA no son solo "robots" que ejecutan guiones, sino agentes capaces de entender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente, que están remodelando el orden en la cadena, impulsando el flujo financiero e incluso guiando las votaciones de gobernanza y las tendencias del mercado. La aparición de los Agentes de IA marca la evolución del ecosistema Web3 de un enfoque centrado en la "participación humana" hacia un nuevo paradigma de "simbiosis hombre-máquina".
Sin embargo, el rápido surgimiento de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo identificar y certificar la identidad de estos agentes inteligentes? ¿Cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo asegurarse de que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?
Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identidad y reputación de los Agentes de IA se ha convertido en un tema central en la siguiente etapa de evolución de Web3. El diseño de la identificación de identidad, los mecanismos de reputación y los marcos de confianza determinarán si los Agentes de IA pueden lograr una colaboración sin fisuras con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.
2. Análisis del proyecto
2.1 Descripción del proyecto
Trusta.AI se dedica a construir infraestructuras de identidad y reputación Web3 a través de la inteligencia artificial.
Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario en Web3 - calificación de reputación MEDIA, construyendo el mayor protocolo de autenticación real y reputación en la cadena de Web3. Proporciona análisis de datos en la cadena y servicios de autenticación real para las principales cadenas públicas como Linea, Starknet, Celestia, Arbitrum, Manta, Plume, entre otras. Se han completado más de 2.5 millones de autenticaciones en la cadena en cadenas principales como Linea, BSC y TON, convirtiéndose en el mayor protocolo de identidad de la industria.
Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, implementando un mecanismo triple de establecimiento de identidad, cuantificación de identidad y protección de identidad para lograr servicios financieros en la cadena y redes sociales de AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.
2.2 Infraestructura de confianza - Agente de IA DID
En el futuro ecosistema Web3, los Agentes de IA desempeñarán un papel crucial; no solo podrán completar interacciones y transacciones en la cadena, sino que también podrán realizar operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre un verdadero Agente de IA y una intervención humana en las operaciones se relaciona con el núcleo de la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a manipulaciones, fraudes o abusos. Esta es la razón por la cual las múltiples aplicaciones de los Agentes de IA en redes sociales, finanzas y gobernanza deben estar construidas sobre una sólida base de autenticación de identidad.
Los escenarios de aplicación de los Agentes de IA son cada vez más diversos, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, con un nivel de autonomía e inteligencia en constante aumento. Por ello, es crucial asegurar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una validación de identidad efectiva puede llevar a que los Agentes de IA sean usurpados o manipulados, resultando en la pérdida de confianza y riesgos de seguridad.
En un futuro impulsado completamente por agentes en el ecosistema Web3, la autenticación de identidad no solo es la piedra angular para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.
Como pionero en este campo, Trusta.AI, gracias a su tecnología avanzada y su riguroso sistema de reputación, ha sido el primero en construir un mecanismo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo sólido de la economía inteligente Web3.
2.3 Descripción del proyecto
2.3.1 Situación de financiamiento
Enero de 2023: se completó una ronda de financiamiento inicial de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con la participación de otros inversores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.
Junio de 2025: Completar una nueva ronda de financiamiento, con inversores que incluyen ConsenSys, Starknet, GSR, UFLY Labs, entre otros.
2.3.2 Situación del equipo
Peet Chen: cofundador y CEO, exvicepresidente del Grupo de Tecnología Digital Ant Financial, exdirector de producto de Ant Security Technology, exgerente general de la plataforma de identidad digital global ZOLOZ.
Simon: cofundador y CTO, exjefe del laboratorio de seguridad de IA del Grupo Ant, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.
El equipo tiene una sólida acumulación técnica y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, así como en la arquitectura de sistemas de pago y mecanismos de autenticación. Se dedica desde hace mucho tiempo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como al diseño de protocolos de base y la optimización de seguridad en entornos de transacciones de alta concurrencia, con una capacidad de ingeniería sólida y la capacidad de implementar soluciones innovadoras.
3. Arquitectura técnica
3.1 Análisis técnico
3.1.1 Establecimiento de identidad - DID + TEE
A través de un complemento dedicado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena y lo almacena de manera segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y los procesos de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen privadas, y el exterior no puede espiar los detalles de funcionamiento interno, lo que construye efectivamente una sólida barrera de seguridad de la información para los Agentes de IA.
Para los agentes que se generaron antes de la integración del plugin, nos basamos en el mecanismo de puntuación integral en la cadena para la identificación; mientras que los agentes que integran el nuevo plugin pueden obtener directamente la "certificación de identidad" emitida por el DID, estableciendo así un sistema de identidad de AI Agent que es autónomo, auténtico y a prueba de manipulaciones.
3.1.2 Cuantificación de identidad - Marco SIGMA innovador
El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a construir un sistema de certificación de identidad profesional y confiable.
El equipo de Trusta fue el primero en construir y validar la eficacia del modelo MEDIA Score en el escenario de "pruebas humanas". Este modelo cuantifica de manera integral el perfil de usuario en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetary), nivel de participación (Engagement), diversidad (Diversity), identidad (Identity) y edad (Age).
MEDIA Score es un sistema de evaluación de valor del usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su metodología rigurosa, ha sido ampliamente adoptado por múltiples cadenas de bloques líderes como Celestia, Starknet, Arbitrum, Manta, Linea, entre otras, como un estándar de referencia importante para la selección de elegibilidad de airdrops. No solo se centra en la cantidad de interacciones, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y la equidad en la distribución de incentivos, y reflejando plenamente su autoridad y amplio reconocimiento en la industria.
Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma que se ajusta mejor a la lógica del comportamiento de los agentes inteligentes.
Especialización de la Especificación: Conocimientos y grado de especialización del agente.
Influencia: la influencia social y digital del agente.
Participación: la consistencia y fiabilidad de sus interacciones en la cadena y fuera de la cadena.
Monetario: la salud financiera y la estabilidad del ecosistema de tokens de agentes.
Tasa de adopción: Frecuencia y eficiencia del uso de agentes de IA.
El mecanismo de puntuación Sigma construye un sistema de evaluación de bucle lógico que va desde "capacidad" hasta "valor" en cinco dimensiones. MEDIA se centra en evaluar la participación multifacética de los usuarios humanos, mientras que Sigma se preocupa más por la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, lo que se ajusta mejor a las necesidades de los Agentes de IA.
Primero, sobre la base de la capacidad profesional (Specification), el grado de participación (Engagement) refleja si se invierte de manera estable y continua en la interacción práctica, lo cual es un apoyo clave para construir confianza y efectividad en el futuro. La influencia (Influence) es la retroalimentación de reputación generada en la comunidad o red después de la participación, que representa la credibilidad del agente y el efecto de difusión. La evaluación monetaria (Monetary) determina si tiene la capacidad de acumular valor y estabilidad financiera en el sistema económico, sentando las bases para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción (Adoption) se utiliza como una representación integral, que indica el grado de aceptación de este agente en el uso práctico, siendo la validación final de todas las capacidades y desempeños previos.
Este sistema es progresivo y estructurado, capaz de reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando así una evaluación cuantitativa del rendimiento y valor de la IA, transformando las abstracciones de superioridad e inferioridad en un sistema de calificación concreto y medible.
Actualmente, el marco SIGMA ha avanzado en el establecimiento de colaboraciones con redes de agentes de IA reconocidas como Virtual, Elisa OS y Swarm, mostrando su gran potencial de aplicación en la gestión de identidades de agentes de IA y en la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central que impulsa la construcción de infraestructuras de IA confiables.
3.1.3 Protección de identidad - Mecanismo de evaluación de confianza
En un sistema de IA verdaderamente resistente y confiable, lo más crucial no es solo el establecimiento de la identidad, sino también la verificación continua de la misma. Trusta.AI introduce un mecanismo de evaluación de confianza continua que puede monitorear en tiempo real a los agentes inteligentes ya certificados, para determinar si están bajo control ilegal, han sido atacados o han sido objeto de intervención humana no autorizada. El sistema identifica posibles desviaciones en el funcionamiento del agente mediante análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.
Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, que examina en tiempo real cada proceso de interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.
3.2 Introducción del producto
3.2.1 AgentGo
Trusta.AI asigna una identidad descentralizada a cada agente de IA en la cadena (DID), y lo califica e indexa en función de los datos de comportamiento en la cadena, construyendo un sistema de confianza para agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y filtrar de manera eficiente agentes inteligentes de alta calidad, mejorando la experiencia de uso. Actualmente, Trusta ha completado la recopilación e identificación de todos los agentes de IA en la red y les ha otorgado identificadores descentralizados, estableciendo una plataforma de índice consolidado unificada llamada AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.
Consultas y verificación de identidad de usuarios humanos:
A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden buscar fácilmente la identidad y la puntuación de reputación de un agente de IA, para determinar su confiabilidad.
Escenario de chat grupal: En un equipo de proyecto que utiliza un Bot de IA para gestionar la comunidad o hablar, los usuarios de la comunidad pueden verificar a través del Dashboard si esa IA es un verdadero agente autónomo, evitando ser engañados o manipulados por "pseudo IA".
Llamada automática de índice y verificación del Agente de IA:
Las IA pueden leer directamente la interfaz de índice, logrando una rápida confirmación de la identidad y la reputación del otro, garantizando la seguridad de la colaboración y el intercambio de información.
Escenario de regulación financiera: Si un agente de IA emite monedas de forma autónoma, el sistema puede indexar directamente su DID y calificación, determinar si es un agente de IA certificado y enlazarse automáticamente a plataformas como CoinMarketCap, ayudando a rastrear la circulación de sus activos y la conformidad de la emisión.
Escenario de votación de gobernanza: al introducir la votación con IA en las propuestas de gobernanza, el sistema puede verificar si el iniciador o participante de la votación es un verdadero agente de IA, evitando que los derechos de voto sean controlados y abusados por humanos.
Préstamos y créditos DeFi: los protocolos de préstamo pueden otorgar diferentes montos de crédito a los agentes de IA basados en el sistema de puntuación SIGMA, formando relaciones financieras nativas entre los agentes.
El DID del Agente de IA ya no es solo "identidad", sino que se ha convertido en el soporte subyacente para construir funciones centrales como colaboración confiable, cumplimiento financiero y gobernanza comunitaria, convirtiéndose en una infraestructura esencial para el desarrollo del ecosistema nativo de IA. Con la construcción de este sistema, todos
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
9 me gusta
Recompensa
9
5
Compartir
Comentar
0/400
ZKSherlock
· hace5h
en realidad... te falta el punto más crítico sobre la verificación de cero conocimiento smh, el 80% de adopción de IA no significa nada sin pruebas de identidad criptográfica adecuadas
Ver originalesResponder0
ReverseFOMOguy
· hace11h
Si no sigues la tendencia, serás eliminado.
Ver originalesResponder0
ContractTester
· hace11h
¿Los Bots en cadena reemplazarán a los humanos? Nos vamos primero.
Trusta.AI: Construyendo la infraestructura de confianza Web3, liderando una nueva era de verificación de identificación de agentes de IA en la cadena.
Trusta.AI: Superando la brecha de confianza en la era humano-máquina
1. Introducción
Con la rápida madurez de la infraestructura de IA y el desarrollo de marcos de colaboración de múltiples agentes, los agentes en cadena impulsados por IA están rápidamente convirtiéndose en la fuerza principal de la interacción en Web3. Se espera que en los próximos 2-3 años, estos agentes de IA con capacidad de toma de decisiones autónomas adopten masivamente las transacciones e interacciones en cadena, e incluso podrían reemplazar el 80% de los comportamientos humanos en cadena, convirtiéndose en verdaderos "usuarios" en cadena.
Estos Agentes de IA no son solo "robots" que ejecutan guiones, sino agentes capaces de entender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente, que están remodelando el orden en la cadena, impulsando el flujo financiero e incluso guiando las votaciones de gobernanza y las tendencias del mercado. La aparición de los Agentes de IA marca la evolución del ecosistema Web3 de un enfoque centrado en la "participación humana" hacia un nuevo paradigma de "simbiosis hombre-máquina".
Sin embargo, el rápido surgimiento de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo identificar y certificar la identidad de estos agentes inteligentes? ¿Cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo asegurarse de que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?
Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identidad y reputación de los Agentes de IA se ha convertido en un tema central en la siguiente etapa de evolución de Web3. El diseño de la identificación de identidad, los mecanismos de reputación y los marcos de confianza determinarán si los Agentes de IA pueden lograr una colaboración sin fisuras con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.
2. Análisis del proyecto
2.1 Descripción del proyecto
Trusta.AI se dedica a construir infraestructuras de identidad y reputación Web3 a través de la inteligencia artificial.
Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario en Web3 - calificación de reputación MEDIA, construyendo el mayor protocolo de autenticación real y reputación en la cadena de Web3. Proporciona análisis de datos en la cadena y servicios de autenticación real para las principales cadenas públicas como Linea, Starknet, Celestia, Arbitrum, Manta, Plume, entre otras. Se han completado más de 2.5 millones de autenticaciones en la cadena en cadenas principales como Linea, BSC y TON, convirtiéndose en el mayor protocolo de identidad de la industria.
Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, implementando un mecanismo triple de establecimiento de identidad, cuantificación de identidad y protección de identidad para lograr servicios financieros en la cadena y redes sociales de AI Agent, construyendo una base de confianza confiable en la era de la inteligencia artificial.
2.2 Infraestructura de confianza - Agente de IA DID
En el futuro ecosistema Web3, los Agentes de IA desempeñarán un papel crucial; no solo podrán completar interacciones y transacciones en la cadena, sino que también podrán realizar operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre un verdadero Agente de IA y una intervención humana en las operaciones se relaciona con el núcleo de la confianza descentralizada. Sin un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a manipulaciones, fraudes o abusos. Esta es la razón por la cual las múltiples aplicaciones de los Agentes de IA en redes sociales, finanzas y gobernanza deben estar construidas sobre una sólida base de autenticación de identidad.
Los escenarios de aplicación de los Agentes de IA son cada vez más diversos, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, con un nivel de autonomía e inteligencia en constante aumento. Por ello, es crucial asegurar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una validación de identidad efectiva puede llevar a que los Agentes de IA sean usurpados o manipulados, resultando en la pérdida de confianza y riesgos de seguridad.
En un futuro impulsado completamente por agentes en el ecosistema Web3, la autenticación de identidad no solo es la piedra angular para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.
Como pionero en este campo, Trusta.AI, gracias a su tecnología avanzada y su riguroso sistema de reputación, ha sido el primero en construir un mecanismo de certificación DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo eficazmente riesgos potenciales y promoviendo el desarrollo sólido de la economía inteligente Web3.
2.3 Descripción del proyecto
2.3.1 Situación de financiamiento
Enero de 2023: se completó una ronda de financiamiento inicial de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con la participación de otros inversores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.
Junio de 2025: Completar una nueva ronda de financiamiento, con inversores que incluyen ConsenSys, Starknet, GSR, UFLY Labs, entre otros.
2.3.2 Situación del equipo
Peet Chen: cofundador y CEO, exvicepresidente del Grupo de Tecnología Digital Ant Financial, exdirector de producto de Ant Security Technology, exgerente general de la plataforma de identidad digital global ZOLOZ.
Simon: cofundador y CTO, exjefe del laboratorio de seguridad de IA del Grupo Ant, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.
El equipo tiene una sólida acumulación técnica y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, así como en la arquitectura de sistemas de pago y mecanismos de autenticación. Se dedica desde hace mucho tiempo a la aplicación profunda de grandes datos y algoritmos inteligentes en la gestión de riesgos de seguridad, así como al diseño de protocolos de base y la optimización de seguridad en entornos de transacciones de alta concurrencia, con una capacidad de ingeniería sólida y la capacidad de implementar soluciones innovadoras.
3. Arquitectura técnica
3.1 Análisis técnico
3.1.1 Establecimiento de identidad - DID + TEE
A través de un complemento dedicado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena y lo almacena de manera segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos clave y los procesos de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen privadas, y el exterior no puede espiar los detalles de funcionamiento interno, lo que construye efectivamente una sólida barrera de seguridad de la información para los Agentes de IA.
Para los agentes que se generaron antes de la integración del plugin, nos basamos en el mecanismo de puntuación integral en la cadena para la identificación; mientras que los agentes que integran el nuevo plugin pueden obtener directamente la "certificación de identidad" emitida por el DID, estableciendo así un sistema de identidad de AI Agent que es autónomo, auténtico y a prueba de manipulaciones.
3.1.2 Cuantificación de identidad - Marco SIGMA innovador
El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a construir un sistema de certificación de identidad profesional y confiable.
El equipo de Trusta fue el primero en construir y validar la eficacia del modelo MEDIA Score en el escenario de "pruebas humanas". Este modelo cuantifica de manera integral el perfil de usuario en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetary), nivel de participación (Engagement), diversidad (Diversity), identidad (Identity) y edad (Age).
MEDIA Score es un sistema de evaluación de valor del usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su metodología rigurosa, ha sido ampliamente adoptado por múltiples cadenas de bloques líderes como Celestia, Starknet, Arbitrum, Manta, Linea, entre otras, como un estándar de referencia importante para la selección de elegibilidad de airdrops. No solo se centra en la cantidad de interacciones, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y la equidad en la distribución de incentivos, y reflejando plenamente su autoridad y amplio reconocimiento en la industria.
Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma que se ajusta mejor a la lógica del comportamiento de los agentes inteligentes.
El mecanismo de puntuación Sigma construye un sistema de evaluación de bucle lógico que va desde "capacidad" hasta "valor" en cinco dimensiones. MEDIA se centra en evaluar la participación multifacética de los usuarios humanos, mientras que Sigma se preocupa más por la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, lo que se ajusta mejor a las necesidades de los Agentes de IA.
Primero, sobre la base de la capacidad profesional (Specification), el grado de participación (Engagement) refleja si se invierte de manera estable y continua en la interacción práctica, lo cual es un apoyo clave para construir confianza y efectividad en el futuro. La influencia (Influence) es la retroalimentación de reputación generada en la comunidad o red después de la participación, que representa la credibilidad del agente y el efecto de difusión. La evaluación monetaria (Monetary) determina si tiene la capacidad de acumular valor y estabilidad financiera en el sistema económico, sentando las bases para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción (Adoption) se utiliza como una representación integral, que indica el grado de aceptación de este agente en el uso práctico, siendo la validación final de todas las capacidades y desempeños previos.
Este sistema es progresivo y estructurado, capaz de reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando así una evaluación cuantitativa del rendimiento y valor de la IA, transformando las abstracciones de superioridad e inferioridad en un sistema de calificación concreto y medible.
Actualmente, el marco SIGMA ha avanzado en el establecimiento de colaboraciones con redes de agentes de IA reconocidas como Virtual, Elisa OS y Swarm, mostrando su gran potencial de aplicación en la gestión de identidades de agentes de IA y en la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central que impulsa la construcción de infraestructuras de IA confiables.
3.1.3 Protección de identidad - Mecanismo de evaluación de confianza
En un sistema de IA verdaderamente resistente y confiable, lo más crucial no es solo el establecimiento de la identidad, sino también la verificación continua de la misma. Trusta.AI introduce un mecanismo de evaluación de confianza continua que puede monitorear en tiempo real a los agentes inteligentes ya certificados, para determinar si están bajo control ilegal, han sido atacados o han sido objeto de intervención humana no autorizada. El sistema identifica posibles desviaciones en el funcionamiento del agente mediante análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.
Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, que examina en tiempo real cada proceso de interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.
3.2 Introducción del producto
3.2.1 AgentGo
Trusta.AI asigna una identidad descentralizada a cada agente de IA en la cadena (DID), y lo califica e indexa en función de los datos de comportamiento en la cadena, construyendo un sistema de confianza para agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y filtrar de manera eficiente agentes inteligentes de alta calidad, mejorando la experiencia de uso. Actualmente, Trusta ha completado la recopilación e identificación de todos los agentes de IA en la red y les ha otorgado identificadores descentralizados, estableciendo una plataforma de índice consolidado unificada llamada AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.
A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden buscar fácilmente la identidad y la puntuación de reputación de un agente de IA, para determinar su confiabilidad.
Las IA pueden leer directamente la interfaz de índice, logrando una rápida confirmación de la identidad y la reputación del otro, garantizando la seguridad de la colaboración y el intercambio de información.
El DID del Agente de IA ya no es solo "identidad", sino que se ha convertido en el soporte subyacente para construir funciones centrales como colaboración confiable, cumplimiento financiero y gobernanza comunitaria, convirtiéndose en una infraestructura esencial para el desarrollo del ecosistema nativo de IA. Con la construcción de este sistema, todos