Análise do setor AI Layer1: Encontrando o terreno fértil para DeAI na cadeia
Resumo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em várias indústrias, expandindo enormemente o espaço da imaginação humana e, em certos cenários, mostrando potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias é controlado firmemente por um pequeno número de gigantes tecnológicos centralizados. Com um forte capital e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de transpor, dificultando a competição para a grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nas inovações e facilidades trazidas pela tecnologia, enquanto a atenção para questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo na saúde do desenvolvimento da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve ser "para o bem" ou "para o mal" se tornará cada vez mais proeminente, e os gigantes centralizados, impulsionados pelo seu instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram numerosas aplicações "Web3 AI" na cadeia. No entanto, uma análise mais aprofundada revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas essenciais ainda dependem de serviços de nuvem centralizados, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade de modelos, utilização de dados e cenários de aplicação, e a profundidade e amplitude da inovação precisam ser aprimoradas.
Para realmente realizar a visão da IA descentralizada, de modo que a blockchain possa suportar aplicações de IA em grande escala de forma segura, eficiente e democrática, e competir em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, impulsionando o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características do AI Layer 1
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura de base e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Em termos concretos, o AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismo de incentivo eficiente e consenso descentralizado O núcleo da AI Layer 1 está na construção de uma rede compartilhada de recursos abertos, como poder computacional e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós da AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional, completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, rompendo assim o monopólio de gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso subjacente e o mecanismo de incentivo: a AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogéneas A tarefa de IA, especialmente o treino e a inferência de LLM, exige requisitos elevados em termos de desempenho computacional e capacidade de processamento paralelo. Para além disso, o ecossistema de IA na cadeia frequentemente precisa de suportar tipos de tarefas diversificados e heterogéneos, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários múltiplos. A IA Layer 1 deve ser profundamente otimizada na arquitetura subjacente para os requisitos de alta vazão, baixa latência e paralelismo flexível, e deve prever a capacidade de suporte nativa a recursos de computação heterogéneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, realizando uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável A camada de IA 1 não só deve prevenir comportamentos maliciosos do modelo, como também a manipulação de dados e outros riscos de segurança, mas deve garantir a verificabilidade e alinhamento dos resultados de saída da IA desde a sua camada base. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), computação segura multipartidária (MPC) e outras tecnologias de ponta, a plataforma pode permitir que cada inferência de modelo, treino e processo de manipulação de dados possam ser verificados de forma independente, assegurando a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entender a lógica e a base das saídas da IA, alcançando "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da Privacidade de Dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A camada de IA deve, ao garantir a verificabilidade, empregar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, para assegurar a segurança dos dados durante todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários quanto à segurança dos dados.
Capacidade poderosa de suporte ao ecossistema e desenvolvimento Como uma infraestrutura de camada 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação de aplicações nativas de IA ricas e diversificadas, alcançando uma prosperidade contínua do ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços do setor, analisando a situação atual do desenvolvimento dos projetos e explorando as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, que depois será migrada para Layer 1). Ao combinar AI Pipeline e tecnologia de blockchain, constrói um ecossistema de inteligência artificial descentralizada. Seu objetivo central é resolver problemas de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo uma rede ecológica de Agentes de IA justa e aberta.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores e engenheiros de blockchain do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiência em empresas como Meta, Coinbase, Polygon, além de universidades de ponta como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com uma aura especial, possuindo ricos recursos, conexões e reconhecimento de mercado, o que proporciona um forte respaldo ao desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e várias dezenas de VCs como Spartan.
arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos "AI Leal", contendo dois processos centrais:
Planejamento de Dados (Data Curation): um processo de seleção de dados impulsionado pela comunidade, usado para o alinhamento de modelos.
Treinamento de Lealdade (Loyalty Training): garantir que o modelo mantenha um processo de treinamento consistente com as intenções da comunidade.
O sistema de blockchain oferece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada do modelo controlada pelo contrato de autorização;
Camada de acesso: verifica se o utilizador está autorizado através da prova de permissão;
Camada de incentivo: o contrato de roteamento de receitas distribuirá os pagamentos a cada chamada entre o treinador, o implantador e o validador.
Estrutura do modelo OML
A estrutura OML (Open, Monetizable, Loyal) é a ideia central proposta pela Sentient, com o objetivo de fornecer proteção de propriedade clara e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo gera um fluxo de receita, o contrato na cadeia distribuirá os ganhos para os treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuidores, a direção da atualização e a governança são decididas pelo DAO, e o uso e a modificação são controlados por mecanismos criptográficos.
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". Sua tecnologia central é:
Impressão digital embutida: durante o treinamento, insere-se um conjunto de pares chave-valor de consulta-resposta ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: verificar se a impressão digital é mantida através de um detector de terceiros (Prover) na forma de perguntas query;
Mecanismo de chamada de permissão: Antes de chamar, é necessário obter o "certificado de permissão" emitido pelo proprietário do modelo, e o sistema, com base nisso, autoriza o modelo a decodificar essa entrada e retornar a resposta correta.
Esta abordagem permite a realização de "chamadas autorizadas baseadas em comportamentos + verificação de propriedade" sem custos de recriptografia.
Estrutura de confirmação de modelo e execução segura
Sentient atualmente utiliza a segurança Melange: combinação de verificação por impressão digital, execução TEE e contratos na cadeia para distribuição de lucros. O método de impressão digital é implementado pela OML 1.0, enfatizando a ideia de "Segurança Otimista", ou seja, assume conformidade, e após violação, pode ser detectada e punida.
O mecanismo de impressão digital é a implementação chave do OML, que gera assinaturas únicas durante a fase de treinamento ao incorporar pares de "pergunta-resposta" específicos. Através dessas assinaturas, os detentores do modelo podem verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece registros rastreáveis na cadeia para as ações de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, evitando o acesso e uso não autorizados. Embora o TEE dependa de hardware e apresente certas vulnerabilidades de segurança, suas vantagens em termos de alto desempenho e capacidade de resposta em tempo real fazem dele uma tecnologia central para a implantação de modelos atualmente.
No futuro, a Sentient planeia introduzir tecnologias de provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE), para reforçar ainda mais a proteção da privacidade e a verificabilidade, oferecendo soluções mais maduras para a implementação descentralizada de modelos de IA.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Análise da corrida Layer1 de IA: explorando o solo fértil para o desenvolvimento de DeAI na cadeia
Análise do setor AI Layer1: Encontrando o terreno fértil para DeAI na cadeia
Resumo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado o rápido desenvolvimento de modelos de linguagem de grande escala (LLM). Os LLM demonstraram capacidades sem precedentes em várias indústrias, expandindo enormemente o espaço da imaginação humana e, em certos cenários, mostrando potencial para substituir o trabalho humano. No entanto, o núcleo dessas tecnologias é controlado firmemente por um pequeno número de gigantes tecnológicos centralizados. Com um forte capital e controle sobre recursos de computação caros, essas empresas estabeleceram barreiras difíceis de transpor, dificultando a competição para a grande maioria dos desenvolvedores e equipes de inovação.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública frequentemente se concentra nas inovações e facilidades trazidas pela tecnologia, enquanto a atenção para questões centrais como proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas terão um impacto profundo na saúde do desenvolvimento da indústria de IA e na aceitação social. Se não forem resolvidos adequadamente, a controvérsia sobre se a IA deve ser "para o bem" ou "para o mal" se tornará cada vez mais proeminente, e os gigantes centralizados, impulsionados pelo seu instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, com suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, já surgiram numerosas aplicações "Web3 AI" na cadeia. No entanto, uma análise mais aprofundada revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, e etapas e infraestruturas essenciais ainda dependem de serviços de nuvem centralizados, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda é limitada em termos de capacidade de modelos, utilização de dados e cenários de aplicação, e a profundidade e amplitude da inovação precisam ser aprimoradas.
Para realmente realizar a visão da IA descentralizada, de modo que a blockchain possa suportar aplicações de IA em grande escala de forma segura, eficiente e democrática, e competir em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta da IA, a democracia na governança e a segurança dos dados, impulsionando o desenvolvimento próspero do ecossistema de IA descentralizada.
As principais características do AI Layer 1
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura de base e design de desempenho intimamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento sustentável e a prosperidade do ecossistema de IA na cadeia. Em termos concretos, o AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismo de incentivo eficiente e consenso descentralizado O núcleo da AI Layer 1 está na construção de uma rede compartilhada de recursos abertos, como poder computacional e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós da AI Layer 1 precisam assumir tarefas mais complexas, não apenas fornecendo poder computacional, completando o treinamento e a inferência de modelos de IA, mas também contribuindo com armazenamento, dados, largura de banda e outros recursos diversificados, rompendo assim o monopólio de gigantes centralizados na infraestrutura de IA. Isso impõe requisitos mais elevados para o consenso subjacente e o mecanismo de incentivo: a AI Layer 1 deve ser capaz de avaliar, incentivar e verificar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a alocação eficiente de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo total do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogéneas A tarefa de IA, especialmente o treino e a inferência de LLM, exige requisitos elevados em termos de desempenho computacional e capacidade de processamento paralelo. Para além disso, o ecossistema de IA na cadeia frequentemente precisa de suportar tipos de tarefas diversificados e heterogéneos, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários múltiplos. A IA Layer 1 deve ser profundamente otimizada na arquitetura subjacente para os requisitos de alta vazão, baixa latência e paralelismo flexível, e deve prever a capacidade de suporte nativa a recursos de computação heterogéneos, garantindo que várias tarefas de IA possam ser executadas de forma eficiente, realizando uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável A camada de IA 1 não só deve prevenir comportamentos maliciosos do modelo, como também a manipulação de dados e outros riscos de segurança, mas deve garantir a verificabilidade e alinhamento dos resultados de saída da IA desde a sua camada base. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), computação segura multipartidária (MPC) e outras tecnologias de ponta, a plataforma pode permitir que cada inferência de modelo, treino e processo de manipulação de dados possam ser verificados de forma independente, assegurando a justiça e transparência do sistema de IA. Ao mesmo tempo, essa verificabilidade pode ajudar os usuários a entender a lógica e a base das saídas da IA, alcançando "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em relação aos produtos de IA.
Proteção da Privacidade de Dados Aplicações de IA frequentemente envolvem dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A camada de IA deve, ao garantir a verificabilidade, empregar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, para assegurar a segurança dos dados durante todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente vazamentos e abusos de dados, eliminando as preocupações dos usuários quanto à segurança dos dados.
Capacidade poderosa de suporte ao ecossistema e desenvolvimento Como uma infraestrutura de camada 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promove-se a implementação de aplicações nativas de IA ricas e diversificadas, alcançando uma prosperidade contínua do ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematizando os últimos avanços do setor, analisando a situação atual do desenvolvimento dos projetos e explorando as tendências futuras.
Sentient: Construir modelos de IA descentralizados de código aberto e leais
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está a construir uma blockchain AI Layer1 ( na fase inicial como Layer 2, que depois será migrada para Layer 1). Ao combinar AI Pipeline e tecnologia de blockchain, constrói um ecossistema de inteligência artificial descentralizada. Seu objetivo central é resolver problemas de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado LLM centralizado através da estrutura "OML" (aberta, lucrativa, leal), permitindo que modelos de IA realizem uma estrutura de propriedade na cadeia, transparência nas chamadas e distribuição de valor. A visão da Sentient é permitir que qualquer pessoa construa, colabore, possua e monetize produtos de IA, promovendo uma rede ecológica de Agentes de IA justa e aberta.
A equipe da Sentient Foundation reúne os principais especialistas acadêmicos, empreendedores e engenheiros de blockchain do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e proteção da privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiência em empresas como Meta, Coinbase, Polygon, além de universidades de ponta como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como AI/ML, NLP e visão computacional, colaborando para a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, a Sentient nasceu com uma aura especial, possuindo ricos recursos, conexões e reconhecimento de mercado, o que proporciona um forte respaldo ao desenvolvimento do projeto. Em meados de 2024, a Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pelo Founders Fund, Pantera e Framework Ventures, com outros investidores incluindo Delphi, Hashkey e várias dezenas de VCs como Spartan.
arquitetura de design e camada de aplicação
Camada de Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por um pipeline de IA (AI Pipeline) e um sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treinamento de artefatos "AI Leal", contendo dois processos centrais:
O sistema de blockchain oferece transparência e controle descentralizado para os protocolos, garantindo a propriedade dos artefatos de IA, o rastreamento de uso, a distribuição de receitas e a governança justa. A arquitetura específica é dividida em quatro camadas:
Estrutura do modelo OML
A estrutura OML (Open, Monetizable, Loyal) é a ideia central proposta pela Sentient, com o objetivo de fornecer proteção de propriedade clara e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Criptografia nativa de IA (AI-native Cryptography)
A criptografia nativa de IA utiliza a continuidade dos modelos de IA, a estrutura de variedades de baixa dimensão e as características diferenciáveis dos modelos para desenvolver um mecanismo de segurança leve "verificável, mas não removível". Sua tecnologia central é:
Esta abordagem permite a realização de "chamadas autorizadas baseadas em comportamentos + verificação de propriedade" sem custos de recriptografia.
Estrutura de confirmação de modelo e execução segura
Sentient atualmente utiliza a segurança Melange: combinação de verificação por impressão digital, execução TEE e contratos na cadeia para distribuição de lucros. O método de impressão digital é implementado pela OML 1.0, enfatizando a ideia de "Segurança Otimista", ou seja, assume conformidade, e após violação, pode ser detectada e punida.
O mecanismo de impressão digital é a implementação chave do OML, que gera assinaturas únicas durante a fase de treinamento ao incorporar pares de "pergunta-resposta" específicos. Através dessas assinaturas, os detentores do modelo podem verificar a propriedade, prevenindo cópias e comercializações não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece registros rastreáveis na cadeia para as ações de uso do modelo.
Além disso, a Sentient lançou a estrutura de computação Enclave TEE, que utiliza ambientes de execução confiáveis (como AWS Nitro Enclaves) para garantir que os modelos respondam apenas a solicitações autorizadas, evitando o acesso e uso não autorizados. Embora o TEE dependa de hardware e apresente certas vulnerabilidades de segurança, suas vantagens em termos de alto desempenho e capacidade de resposta em tempo real fazem dele uma tecnologia central para a implantação de modelos atualmente.
No futuro, a Sentient planeia introduzir tecnologias de provas de conhecimento zero (ZK) e criptografia homomórfica completa (FHE), para reforçar ainda mais a proteção da privacidade e a verificabilidade, oferecendo soluções mais maduras para a implementação descentralizada de modelos de IA.