Relatório de pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Fundo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado rapidamente o desenvolvimento de modelos de linguagem em larga escala (LLM). Os LLMs demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço de imaginação humana, e até mesmo mostrando potencial para substituir o trabalho humano em alguns cenários. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de um pequeno número de gigantes tecnológicos centralizados. Com um capital robusto e controle sobre recursos computacionais caros, essas empresas estabeleceram barreiras intransponíveis, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a se concentrar nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como a proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas afetarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem adequadamente resolvidos, a controvérsia sobre se a IA é "para o bem" ou "para o mal" se tornará cada vez mais proeminente, e os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, devido às suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, várias aplicações "Web3 AI" já surgiram em algumas blockchains principais. No entanto, uma análise mais aprofundada revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, e as etapas e infraestruturas chave ainda dependem de serviços de nuvem centralizados, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, sendo necessária uma melhoria na profundidade e na amplitude da inovação.
Para realmente realizar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e rivalize em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta em IA, a governança democrática e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As características principais da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho estreitamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Em termos concretos, o AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos abertos, como poder computacional e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, que não apenas envolvem fornecer poder computacional, mas também completar o treinamento e a inferência de modelos de IA, além de contribuir com recursos diversificados, como armazenamento, dados e largura de banda, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe exigências mais elevadas ao mecanismo de consenso e incentivo subjacente: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a distribuição eficiente de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo geral do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogéneas A tarefa de IA, especialmente o treino e a inferência de LLM, exige requisitos elevados em termos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia frequentemente precisa de suportar tipos de tarefas diversificados e heterogéneos, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários multivariados. O AI Layer 1 deve ser profundamente otimizado na sua arquitetura de base para atender às exigências de alta taxa de transferência, baixa latência e paralelismo flexível, e prever a capacidade de suporte nativa a recursos computacionais heterogéneos, garantindo que diversas tarefas de IA possam ser executadas de forma eficiente, realizando uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável A AI Layer 1 não apenas deve prevenir comportamentos maliciosos do modelo, manipulação de dados e outros riscos de segurança, mas também deve garantir, a partir da mecânica subjacente, a verificabilidade e alinhamento dos resultados da saída da AI. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), computação segura multiparte (MPC) e outras tecnologias de ponta, a plataforma pode permitir que cada inferência de modelo, treinamento e processo de manipulação de dados sejam independentemente verificáveis, garantindo a justiça e transparência do sistema de AI. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a entender a lógica e a base da saída da AI, realizando "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em produtos de AI.
Proteção da privacidade dos dados A aplicação de IA frequentemente envolve dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve adotar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, garantindo a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente o vazamento e o uso indevido de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à infraestrutura ecológica Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós, provedores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promover a implementação de aplicações nativas de IA ricas e diversificadas, e alcançar a prosperidade contínua do ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematicamente organizando os últimos avanços da pista, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados e open source com lealdade
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está criando uma blockchain AI Layer1 (, que na fase inicial é Layer 2, e depois migrará para Layer 1). Ao combinar a AI Pipeline e a tecnologia blockchain, está construindo uma economia de inteligência artificial descentralizada. Seu objetivo central é resolver questões de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado centralizado de LLM através da estrutura "OML" (, aberta, lucrativa e leal ), permitindo que os modelos de IA implementem uma estrutura de propriedade na cadeia, transparência de chamadas e monetização de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase, Polygon, bem como em universidades de prestígio como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como IA/ML, NLP e visão computacional, colaborando para impulsionar a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient nasceu com um certo prestígio, possuindo uma rica gama de recursos, contatos e reconhecimento de mercado, o que proporcionou um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pela Founders Fund, Pantera e Framework Ventures, com a participação de várias outras instituições de investimento, incluindo Delphi, Hashkey e Spartan.
Arquitetura de Design e Camada de Aplicação
Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por duas partes: o AI Pipeline ( e o sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treino de artefatos de "IA Leal", incluindo dois processos centrais:
Planeamento de Dados ) Data Curation (: um processo de seleção de dados impulsionado pela comunidade, utilizado para o alinhamento de modelos.
Treinamento de Lealdade): garantir que o modelo mantenha um processo de treinamento consistente com a intenção da comunidade.
O sistema de blockchain fornece transparência e controle descentralizado para o protocolo, garantindo a propriedade dos artefatos de IA, rastreamento de uso, distribuição de receitas e governança justa. A arquitetura específica é dividida em quatro camadas:
Camada de armazenamento: armazena os pesos do modelo e as informações de registro de impressões digitais;
Camada de distribuição: entrada de chamada do modelo controlado pelo contrato de autorização;
Camada de acesso: verificar se o usuário está autorizado através da prova de permissão;
Camada de incentivos: o contrato de roteamento de receitas irá distribuir o pagamento em cada chamada entre os treinadores, implementadores e validadores.
(## Estrutura do Modelo OML
A estrutura OML ) é aberta Open, monetizável Monetizable, e leal Loyal###, e é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção de propriedade clara e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
Abertura: O modelo deve ser de código aberto, com código e estrutura de dados transparentes, facilitando a reprodução, auditoria e melhoria pela comunidade.
Monetização: Cada chamada ao modelo acionará um fluxo de receita, o contrato na cadeia distribuirá os lucros ao treinadores, implementadores e validadores.
Lealdade: O modelo pertence à comunidade de contribuintes, a direção de atualização e a governança são decididas pela DAO, e o uso e a modificação estão sob o controle de mecanismos criptográficos.
(## Criptografia nativa da IA )AI-native Cryptography ###
A criptografia nativa de IA utiliza a continuidade, a estrutura de variedades de baixa dimensão e as características de diferenciabilidade dos modelos de IA para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A sua tecnologia central é:
Impressão digital embutida: durante o treinamento, insira um conjunto de pares chave-valor query-response ocultos para formar a assinatura única do modelo;
Protocolo de verificação de propriedade: validar se a impressão digital é mantida através de um detector de terceiros (Prover) na forma de uma pergunta query;
Mecanismo de chamada de permissão: é necessário obter um "certificado de permissão" emitido pelo proprietário do modelo antes da chamada, e o sistema, com base nisso, autoriza o modelo a decodificar a entrada e retornar a resposta correta.
Este método permite a realização de "chamadas autorizadas baseadas em comportamentos + validação de pertencimento" sem custo de re-encriptação.
(## Estrutura de certificação de modelo e execução segura
Sentient atualmente utiliza a segurança híbrida Melange: combina a verificação por impressão digital, execução TEE e contratos na cadeia para compartilhamento de lucros. O método de impressão digital é implementado na linha principal OML 1.0, enfatizando o pensamento de "Segurança Otimista)Optimistic Security###", ou seja, presume-se a conformidade, com a possibilidade de detecção e penalização em caso de infrações.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas exclusivas durante a fase de treinamento, através da incorporação de pares específicos de "pergunta-resposta". Com essas assinaturas, os detentores do modelo podem verificar a propriedade, evitando cópias e comercialização não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia sobre o comportamento de uso do modelo.
Além disso, a Sentient lançou o framework de computação Enclave TEE, utilizando ambientes de execução confiáveis ( como AWS Nitro Enclaves ) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e tenha algumas vulnerabilidades de segurança, suas vantagens de alto desempenho e em tempo real fazem dele o núcleo da implantação atual de modelos.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
20 Curtidas
Recompensa
20
5
Compartilhar
Comentário
0/400
SundayDegen
· 07-24 20:44
Mais uma base para aproveitar os benefícios da centralização.
Ver originalResponder0
GasOptimizer
· 07-24 13:59
Poder de computação bottleneck 0x5f3 está preso novamente
Ver originalResponder0
RektRecorder
· 07-24 13:57
Procurar a próxima cadeia de cem vezes
Ver originalResponder0
MEVHunterBearish
· 07-24 13:50
Monopólio dos gigantes? A revolução deve começar pela base!
Ver originalResponder0
probably_nothing_anon
· 07-24 13:29
Falar mais algumas coisas fictícias, dizer como fazer.
Análise Profunda da Camada 1 em IA: Seis Projetos para Estruturas de IA Descentralizadas
Relatório de pesquisa AI Layer1: Encontrando o solo fértil para DeAI na cadeia
Resumo
Fundo
Nos últimos anos, empresas de tecnologia de ponta como OpenAI, Anthropic, Google e Meta têm impulsionado rapidamente o desenvolvimento de modelos de linguagem em larga escala (LLM). Os LLMs demonstraram capacidades sem precedentes em diversos setores, expandindo enormemente o espaço de imaginação humana, e até mesmo mostrando potencial para substituir o trabalho humano em alguns cenários. No entanto, o núcleo dessas tecnologias está firmemente nas mãos de um pequeno número de gigantes tecnológicos centralizados. Com um capital robusto e controle sobre recursos computacionais caros, essas empresas estabeleceram barreiras intransponíveis, tornando difícil para a grande maioria dos desenvolvedores e equipes de inovação competir com elas.
Ao mesmo tempo, no início da rápida evolução da IA, a opinião pública tende a se concentrar nas inovações e conveniências trazidas pela tecnologia, enquanto a atenção a questões centrais como a proteção da privacidade, transparência e segurança é relativamente insuficiente. A longo prazo, esses problemas afetarão profundamente o desenvolvimento saudável da indústria de IA e a aceitação social. Se não forem adequadamente resolvidos, a controvérsia sobre se a IA é "para o bem" ou "para o mal" se tornará cada vez mais proeminente, e os gigantes centralizados, impulsionados pelo instinto de lucro, muitas vezes carecem de motivação suficiente para enfrentar esses desafios proativamente.
A tecnologia blockchain, devido às suas características de descentralização, transparência e resistência à censura, oferece novas possibilidades para o desenvolvimento sustentável da indústria de IA. Atualmente, várias aplicações "Web3 AI" já surgiram em algumas blockchains principais. No entanto, uma análise mais aprofundada revela que esses projetos ainda enfrentam muitos problemas: por um lado, o grau de descentralização é limitado, e as etapas e infraestruturas chave ainda dependem de serviços de nuvem centralizados, dificultando o suporte a um ecossistema verdadeiramente aberto; por outro lado, em comparação com os produtos de IA do mundo Web2, a IA na cadeia ainda apresenta limitações em termos de capacidade do modelo, utilização de dados e cenários de aplicação, sendo necessária uma melhoria na profundidade e na amplitude da inovação.
Para realmente realizar a visão de IA descentralizada, permitindo que a blockchain suporte aplicações de IA em larga escala de forma segura, eficiente e democrática, e rivalize em desempenho com soluções centralizadas, precisamos projetar uma blockchain Layer 1 feita sob medida para a IA. Isso fornecerá uma base sólida para a inovação aberta em IA, a governança democrática e a segurança dos dados, promovendo o desenvolvimento próspero do ecossistema de IA descentralizada.
As características principais da camada 1 de IA
AI Layer 1, como uma blockchain projetada especificamente para aplicações de IA, tem sua arquitetura subjacente e design de desempenho estreitamente alinhados com as necessidades das tarefas de IA, visando apoiar de forma eficiente o desenvolvimento e a prosperidade sustentáveis do ecossistema de IA na cadeia. Em termos concretos, o AI Layer 1 deve possuir as seguintes capacidades centrais:
Mecanismos de incentivo eficientes e consenso descentralizado O núcleo do AI Layer 1 reside na construção de uma rede compartilhada de recursos abertos, como poder computacional e armazenamento. Ao contrário dos nós de blockchain tradicionais que se concentram principalmente na contabilidade do livro-razão, os nós do AI Layer 1 precisam assumir tarefas mais complexas, que não apenas envolvem fornecer poder computacional, mas também completar o treinamento e a inferência de modelos de IA, além de contribuir com recursos diversificados, como armazenamento, dados e largura de banda, quebrando assim o monopólio dos gigantes centralizados na infraestrutura de IA. Isso impõe exigências mais elevadas ao mecanismo de consenso e incentivo subjacente: o AI Layer 1 deve ser capaz de avaliar, incentivar e validar com precisão a contribuição real dos nós em tarefas de inferência e treinamento de IA, garantindo a segurança da rede e a distribuição eficiente de recursos. Somente assim será possível garantir a estabilidade e a prosperidade da rede, além de reduzir efetivamente o custo geral do poder computacional.
Desempenho elevado e capacidade de suporte a tarefas heterogéneas A tarefa de IA, especialmente o treino e a inferência de LLM, exige requisitos elevados em termos de desempenho computacional e capacidade de processamento paralelo. Além disso, o ecossistema de IA na cadeia frequentemente precisa de suportar tipos de tarefas diversificados e heterogéneos, incluindo diferentes estruturas de modelos, processamento de dados, inferência, armazenamento e outros cenários multivariados. O AI Layer 1 deve ser profundamente otimizado na sua arquitetura de base para atender às exigências de alta taxa de transferência, baixa latência e paralelismo flexível, e prever a capacidade de suporte nativa a recursos computacionais heterogéneos, garantindo que diversas tarefas de IA possam ser executadas de forma eficiente, realizando uma expansão suave de "tarefa única" para "ecossistema complexo e diversificado".
Verificabilidade e Garantia de Saída Confiável A AI Layer 1 não apenas deve prevenir comportamentos maliciosos do modelo, manipulação de dados e outros riscos de segurança, mas também deve garantir, a partir da mecânica subjacente, a verificabilidade e alinhamento dos resultados da saída da AI. Através da integração de ambientes de execução confiáveis (TEE), provas de conhecimento zero (ZK), computação segura multiparte (MPC) e outras tecnologias de ponta, a plataforma pode permitir que cada inferência de modelo, treinamento e processo de manipulação de dados sejam independentemente verificáveis, garantindo a justiça e transparência do sistema de AI. Ao mesmo tempo, essa verificabilidade também pode ajudar os usuários a entender a lógica e a base da saída da AI, realizando "o que se obtém é o que se deseja", aumentando a confiança e satisfação dos usuários em produtos de AI.
Proteção da privacidade dos dados A aplicação de IA frequentemente envolve dados sensíveis dos usuários, sendo a proteção da privacidade dos dados especialmente crítica em áreas como finanças, saúde e redes sociais. A IA Layer 1 deve adotar técnicas de processamento de dados baseadas em criptografia, protocolos de computação de privacidade e gestão de permissões de dados, garantindo a segurança dos dados em todo o processo de inferência, treinamento e armazenamento, prevenindo efetivamente o vazamento e o uso indevido de dados, eliminando as preocupações dos usuários em relação à segurança dos dados.
Capacidade poderosa de suporte ao desenvolvimento e à infraestrutura ecológica Como uma infraestrutura Layer 1 nativa de IA, a plataforma não só deve ter uma liderança técnica, mas também fornecer ferramentas de desenvolvimento completas, SDKs integrados, suporte operacional e mecanismos de incentivo para desenvolvedores, operadores de nós, provedores de serviços de IA e outros participantes do ecossistema. Ao otimizar continuamente a usabilidade da plataforma e a experiência do desenvolvedor, promover a implementação de aplicações nativas de IA ricas e diversificadas, e alcançar a prosperidade contínua do ecossistema de IA descentralizado.
Com base no contexto e nas expectativas acima, este artigo irá apresentar detalhadamente seis projetos representativos de AI Layer1, incluindo Sentient, Sahara AI, Ritual, Gensyn, Bittensor e 0G, sistematicamente organizando os últimos avanços da pista, analisando o estado atual do desenvolvimento dos projetos e discutindo as tendências futuras.
Sentient: Construir modelos de IA descentralizados e open source com lealdade
Visão geral do projeto
Sentient é uma plataforma de protocolo de código aberto que está criando uma blockchain AI Layer1 (, que na fase inicial é Layer 2, e depois migrará para Layer 1). Ao combinar a AI Pipeline e a tecnologia blockchain, está construindo uma economia de inteligência artificial descentralizada. Seu objetivo central é resolver questões de propriedade de modelos, rastreamento de chamadas e distribuição de valor no mercado centralizado de LLM através da estrutura "OML" (, aberta, lucrativa e leal ), permitindo que os modelos de IA implementem uma estrutura de propriedade na cadeia, transparência de chamadas e monetização de valor. A visão da Sentient é permitir que qualquer pessoa possa construir, colaborar, possuir e monetizar produtos de IA, promovendo assim um ecossistema de rede de agentes de IA justo e aberto.
A equipe da Sentient Foundation reúne os melhores especialistas acadêmicos, empreendedores de blockchain e engenheiros do mundo, dedicando-se a construir uma plataforma AGI comunitária, de código aberto e verificável. Os membros principais incluem o professor Pramod Viswanath da Universidade de Princeton e o professor Himanshu Tyagi do Instituto Indiano de Ciência, responsáveis pela segurança e privacidade da IA, enquanto Sandeep Nailwal, cofundador da Polygon, lidera a estratégia e o ecossistema de blockchain. Os membros da equipe têm experiências em empresas renomadas como Meta, Coinbase, Polygon, bem como em universidades de prestígio como a Universidade de Princeton e o Instituto Indiano de Tecnologia, abrangendo áreas como IA/ML, NLP e visão computacional, colaborando para impulsionar a implementação do projeto.
Como um projeto de segunda empreitada de Sandeep Nailwal, cofundador da Polygon, o Sentient nasceu com um certo prestígio, possuindo uma rica gama de recursos, contatos e reconhecimento de mercado, o que proporcionou um forte respaldo para o desenvolvimento do projeto. Em meados de 2024, o Sentient completou uma rodada de financiamento seed de 85 milhões de dólares, liderada pela Founders Fund, Pantera e Framework Ventures, com a participação de várias outras instituições de investimento, incluindo Delphi, Hashkey e Spartan.
Arquitetura de Design e Camada de Aplicação
Infraestrutura
Arquitetura Central
A arquitetura central do Sentient é composta por duas partes: o AI Pipeline ( e o sistema de blockchain.
O pipeline de IA é a base para o desenvolvimento e treino de artefatos de "IA Leal", incluindo dois processos centrais:
O sistema de blockchain fornece transparência e controle descentralizado para o protocolo, garantindo a propriedade dos artefatos de IA, rastreamento de uso, distribuição de receitas e governança justa. A arquitetura específica é dividida em quatro camadas:
(## Estrutura do Modelo OML
A estrutura OML ) é aberta Open, monetizável Monetizable, e leal Loyal###, e é o conceito central proposto pela Sentient, com o objetivo de fornecer proteção de propriedade clara e mecanismos de incentivo econômico para modelos de IA de código aberto. Ao combinar tecnologia na cadeia e criptografia nativa de IA, possui as seguintes características:
(## Criptografia nativa da IA )AI-native Cryptography ###
A criptografia nativa de IA utiliza a continuidade, a estrutura de variedades de baixa dimensão e as características de diferenciabilidade dos modelos de IA para desenvolver um mecanismo de segurança leve que é "verificável, mas não removível". A sua tecnologia central é:
Este método permite a realização de "chamadas autorizadas baseadas em comportamentos + validação de pertencimento" sem custo de re-encriptação.
(## Estrutura de certificação de modelo e execução segura
Sentient atualmente utiliza a segurança híbrida Melange: combina a verificação por impressão digital, execução TEE e contratos na cadeia para compartilhamento de lucros. O método de impressão digital é implementado na linha principal OML 1.0, enfatizando o pensamento de "Segurança Otimista)Optimistic Security###", ou seja, presume-se a conformidade, com a possibilidade de detecção e penalização em caso de infrações.
O mecanismo de impressão digital é a implementação chave do OML, permitindo que o modelo gere assinaturas exclusivas durante a fase de treinamento, através da incorporação de pares específicos de "pergunta-resposta". Com essas assinaturas, os detentores do modelo podem verificar a propriedade, evitando cópias e comercialização não autorizadas. Este mecanismo não só protege os direitos dos desenvolvedores do modelo, mas também fornece um registro rastreável na cadeia sobre o comportamento de uso do modelo.
Além disso, a Sentient lançou o framework de computação Enclave TEE, utilizando ambientes de execução confiáveis ( como AWS Nitro Enclaves ) para garantir que os modelos respondam apenas a solicitações autorizadas, prevenindo acessos e usos não autorizados. Embora o TEE dependa de hardware e tenha algumas vulnerabilidades de segurança, suas vantagens de alto desempenho e em tempo real fazem dele o núcleo da implantação atual de modelos.