Analyse du secteur AI Layer1 : à la recherche des terres fertiles pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement fait progresser le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'imaginaire humain et montrant même, dans certaines situations, un potentiel de remplacement du travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital considérable et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence de la part de la plupart des développeurs et des équipes d'innovation très difficile.
Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et la commodité apportées par la technologie, tandis que l'attention portée à des questions centrales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière adéquate, le débat sur si l'IA doit "être bénéfique" ou "maléfique" deviendra de plus en plus prononcé, et les géants centralisés, motivés par leur instinct de profit, manquent souvent de l'incitation nécessaire pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur les blockchains mainstream. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA sur la chaîne présente encore des limitations en termes de capacités des modèles, d'utilisation des données et de scénarios d'application, la profondeur et la portée de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications d'IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en termes de performances avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de l'AI Layer 1
AI Layer 1, en tant que blockchain spécifiquement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement liés aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 devrait posséder les compétences clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de l'AI Layer 1 réside dans la construction d'un réseau partagé de ressources ouvertes telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur les infrastructures d'IA. Cela pose des exigences plus élevées pour le mécanisme de consensus et d'incitation sous-jacent : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision les contributions réelles des nœuds dans les tâches d'inférence et d'entraînement de l'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût total de la puissance de calcul.
Performances élevées exceptionnelles et capacité de support des tâches hétérogènes Les tâches AI, en particulier l'entraînement et l'inférence des LLM, posent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème AI off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. La couche AI Layer 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches AI puissent s'exécuter efficacement, permettant une extension fluide de "tâches uniques" à un "écosystème complexe et diversifié".
Vérifiabilité et garantie de sortie fiable L'AI Layer 1 doit non seulement prévenir les malveillances des modèles et les risques de falsification des données, mais aussi garantir, au niveau des mécanismes fondamentaux, la vérifiabilité et l'alignement des résultats sortis par l'IA. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque inférence de modèle, entraînement et processus de traitement de données d'être vérifié de manière indépendante, assurant ainsi l'équité et la transparence du système d'IA. Parallèlement, cette vérifiabilité aide les utilisateurs à clarifier la logique et les fondements des sorties de l'IA, réalisant ainsi "ce qui est obtenu est ce qui est souhaité", augmentant la confiance et la satisfaction des utilisateurs vis-à-vis des produits d'IA.
Protection de la vie privée des données Les applications AI impliquent souvent des données sensibles des utilisateurs, et la protection de la vie privée des données est particulièrement cruciale dans les domaines financier, médical et social. AI Layer 1 devrait garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul de la vie privée et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, de formation et de stockage, d'éviter efficacement les fuites de données et les abus, et d'éliminer les inquiétudes des utilisateurs concernant la sécurité des données.
Capacité de support et de développement d'un écosystème puissant En tant qu'infrastructure de base de Layer 1 native à l'IA, la plateforme doit non seulement posséder un leadership technologique, mais également fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, nous favorisons le déploiement d'applications variées et riches natives à l'IA, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base des contextes et attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer 1, dont Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en organisant systématiquement les dernières avancées dans le domaine, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : construire un modèle d'IA décentralisé open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1 (. La phase initiale est Layer 2, qui sera ensuite migrée vers Layer 1). En combinant la pipeline AI et la technologie blockchain, elle construit une économie décentralisée de l'intelligence artificielle. Son objectif principal est de résoudre les problèmes d'appartenance des modèles, de suivi des appels et de distribution de la valeur sur le marché LLM centralisé grâce au cadre "OML" (Ouvert, Rentable, Loyal), permettant aux modèles d'IA d'implémenter une structure de propriété on-chain, de rendre les appels transparents et de partager la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits IA, favorisant ainsi un écosystème de réseau AI Agent équitable et ouvert.
L'équipe de la Sentient Foundation regroupe des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut Indien de Science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises telles que Meta, Coinbase, Polygon, ainsi que dans des établissements d'enseignement supérieur de premier plan tels que l'Université de Princeton et l'Institut Indien de Technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de seconde entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ bénéficié d'une aura, possédant des ressources riches, des contacts et une reconnaissance sur le marché, offrant un puissant soutien au développement du projet. À mi-2024, Sentient a complété un tour de financement de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et Spartan parmi des dizaines de VC.
conception de l'architecture et couche d'application
Infrastructure de base
Architecture de base
L'architecture centrale de Sentient est composée de deux parties : le pipeline d'IA (AI Pipeline) et le système de off-chain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Planification des données (Data Curation) : processus de sélection des données piloté par la communauté, utilisé pour l'alignement des modèles.
Formation à la fidélité (Loyalty Training) : garantir que le modèle maintienne un processus d'entraînement conforme aux intentions de la communauté.
Le système de blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Couche de stockage : stocker les poids du modèle et les informations d'enregistrement des empreintes digitales ;
Couche de distribution : le contrat d'autorisation contrôle le point d'entrée de l'appel du modèle ;
Couche d'accès : vérifie si l'utilisateur est autorisé via la preuve d'autorisation ;
Couche d'incitation : le contrat de routage des bénéfices attribue des paiements à chaque appel aux entraîneurs, déployeurs et validateurs.
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Ouverture : Le modèle doit être open source, avec un code et une structure de données transparents, facilitant la reproduction, l'audit et l'amélioration par la communauté.
Monétisation : Chaque appel de modèle déclenche un flux de revenus, le contrat off-chain distribuera les revenus aux formateurs, déployeurs et validateurs.
Loyauté : Le modèle appartient à la communauté des contributeurs, la direction des mises à jour et la gouvernance sont décidées par le DAO, l'utilisation et la modification sont contrôlées par des mécanismes cryptographiques.
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Empreinte digitale intégrée : insérer un ensemble de paires clé-valeur query-response cachées lors de l'entraînement pour former une signature unique du modèle ;
Protocole de vérification de propriété : vérifier si l'empreinte digitale est conservée via un détecteur tiers (Prover) sous forme de requête.
Mécanisme d'appel autorisé : avant d'appeler, il faut obtenir le "certificat d'autorisation" délivré par le propriétaire du modèle, puis le système autorise le modèle à décoder cette entrée et à renvoyer la réponse exacte.
Cette méthode permet de réaliser "l'appel d'autorisation basé sur le comportement + la vérification d'appartenance" sans coût de réencryption.
Cadre d'exécution sécurisé et de validation des modèles
Sentient utilise actuellement la sécurité hybride Melange : une combinaison de la vérification par empreinte digitale, de l'exécution TEE et de la répartition des revenus des contrats off-chain. La méthode d'empreinte digitale est réalisée par OML 1.0, mettant l'accent sur la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire la conformité par défaut, avec détection et punition en cas de non-conformité.
Le mécanisme de signature est une mise en œuvre clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle off-chain.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi tout accès et utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de temps réel en font une technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des technologies de preuve à divulgation nulle de connaissance (ZK) et de chiffrement homomorphe complet (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité, offrant des solutions plus matures pour le déploiement décentralisé des modèles d'IA.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
5
Partager
Commentaire
0/400
DegenMcsleepless
· Il y a 2h
L'IA centralisée finira par disparaître.
Voir l'originalRépondre0
GasWastingMaximalist
· Il y a 3h
Les frais de puissance de calcul sont en effet élevés.
Voir l'originalRépondre0
quiet_lurker
· Il y a 3h
Digne d'une étude approfondie
Voir l'originalRépondre0
ForkItAllDay
· Il y a 4h
AI future explosion de hausse
Voir l'originalRépondre0
NftCollectors
· Il y a 4h
Trouver de nouvelles opportunités pour briser le statu quo
Analyse du secteur AI Layer1 : exploration du sol fertile pour le développement de DeAI off-chain
Analyse du secteur AI Layer1 : à la recherche des terres fertiles pour DeAI off-chain
Aperçu
Ces dernières années, des entreprises technologiques de premier plan telles qu'OpenAI, Anthropic, Google et Meta ont continuellement fait progresser le développement rapide des modèles de langage de grande taille (LLM). Les LLM montrent des capacités sans précédent dans divers secteurs, élargissant considérablement l'imaginaire humain et montrant même, dans certaines situations, un potentiel de remplacement du travail humain. Cependant, le cœur de ces technologies est fermement contrôlé par quelques géants technologiques centralisés. Grâce à un capital considérable et à un contrôle des ressources de calcul coûteuses, ces entreprises ont établi des barrières difficiles à franchir, rendant la concurrence de la part de la plupart des développeurs et des équipes d'innovation très difficile.
Dans le même temps, au début de l'évolution rapide de l'IA, l'opinion publique se concentre souvent sur les percées et la commodité apportées par la technologie, tandis que l'attention portée à des questions centrales telles que la protection de la vie privée, la transparence et la sécurité est relativement insuffisante. À long terme, ces problèmes auront un impact profond sur le développement sain de l'industrie de l'IA et son acceptation par la société. Si ces questions ne sont pas résolues de manière adéquate, le débat sur si l'IA doit "être bénéfique" ou "maléfique" deviendra de plus en plus prononcé, et les géants centralisés, motivés par leur instinct de profit, manquent souvent de l'incitation nécessaire pour faire face à ces défis.
La technologie blockchain, grâce à ses caractéristiques de décentralisation, de transparence et de résistance à la censure, offre de nouvelles possibilités pour le développement durable de l'industrie de l'IA. Actuellement, de nombreuses applications "Web3 AI" ont émergé sur les blockchains mainstream. Cependant, une analyse approfondie révèle que ces projets présentent encore de nombreux problèmes : d'une part, le degré de décentralisation est limité, les étapes clés et les infrastructures dépendent encore des services cloud centralisés, ce qui rend difficile le soutien d'un écosystème véritablement ouvert ; d'autre part, par rapport aux produits d'IA du monde Web2, l'IA sur la chaîne présente encore des limitations en termes de capacités des modèles, d'utilisation des données et de scénarios d'application, la profondeur et la portée de l'innovation doivent être améliorées.
Pour réaliser véritablement la vision d'une IA décentralisée, permettant à la blockchain de supporter des applications d'IA à grande échelle de manière sécurisée, efficace et démocratique, tout en rivalisant en termes de performances avec des solutions centralisées, nous devons concevoir une blockchain Layer 1 spécialement conçue pour l'IA. Cela fournira une base solide pour l'innovation ouverte de l'IA, la démocratie de gouvernance et la sécurité des données, favorisant le développement prospère d'un écosystème d'IA décentralisé.
Les caractéristiques clés de l'AI Layer 1
AI Layer 1, en tant que blockchain spécifiquement conçue pour les applications d'IA, a une architecture sous-jacente et un design de performance étroitement liés aux besoins des tâches d'IA, visant à soutenir efficacement le développement durable et la prospérité de l'écosystème d'IA off-chain. Plus précisément, AI Layer 1 devrait posséder les compétences clés suivantes :
Mécanisme de consensus décentralisé et d'incitation efficace Le cœur de l'AI Layer 1 réside dans la construction d'un réseau partagé de ressources ouvertes telles que la puissance de calcul et le stockage. Contrairement aux nœuds de blockchain traditionnels qui se concentrent principalement sur la comptabilité des livres, les nœuds de l'AI Layer 1 doivent assumer des tâches plus complexes, non seulement fournir de la puissance de calcul, réaliser l'entraînement et l'inférence des modèles d'IA, mais aussi contribuer à des ressources diversifiées telles que le stockage, les données et la bande passante, afin de briser le monopole des géants centralisés sur les infrastructures d'IA. Cela pose des exigences plus élevées pour le mécanisme de consensus et d'incitation sous-jacent : l'AI Layer 1 doit être capable d'évaluer, d'inciter et de vérifier avec précision les contributions réelles des nœuds dans les tâches d'inférence et d'entraînement de l'IA, réalisant ainsi la sécurité du réseau et la répartition efficace des ressources. Ce n'est qu'ainsi que l'on peut garantir la stabilité et la prospérité du réseau, tout en réduisant efficacement le coût total de la puissance de calcul.
Performances élevées exceptionnelles et capacité de support des tâches hétérogènes Les tâches AI, en particulier l'entraînement et l'inférence des LLM, posent des exigences très élevées en matière de performance de calcul et de capacité de traitement parallèle. De plus, l'écosystème AI off-chain doit souvent prendre en charge des types de tâches diversifiés et hétérogènes, y compris différentes structures de modèles, le traitement des données, l'inférence, le stockage et d'autres scénarios variés. La couche AI Layer 1 doit être profondément optimisée au niveau de l'architecture sous-jacente pour répondre aux besoins de haut débit, de faible latence et de parallélisme élastique, tout en prévoyant une capacité de support natif pour les ressources de calcul hétérogènes, garantissant que toutes les tâches AI puissent s'exécuter efficacement, permettant une extension fluide de "tâches uniques" à un "écosystème complexe et diversifié".
Vérifiabilité et garantie de sortie fiable L'AI Layer 1 doit non seulement prévenir les malveillances des modèles et les risques de falsification des données, mais aussi garantir, au niveau des mécanismes fondamentaux, la vérifiabilité et l'alignement des résultats sortis par l'IA. En intégrant des technologies de pointe telles que l'environnement d'exécution de confiance (TEE), les preuves à divulgation nulle de connaissance (ZK) et le calcul sécurisé multipartite (MPC), la plateforme permet à chaque inférence de modèle, entraînement et processus de traitement de données d'être vérifié de manière indépendante, assurant ainsi l'équité et la transparence du système d'IA. Parallèlement, cette vérifiabilité aide les utilisateurs à clarifier la logique et les fondements des sorties de l'IA, réalisant ainsi "ce qui est obtenu est ce qui est souhaité", augmentant la confiance et la satisfaction des utilisateurs vis-à-vis des produits d'IA.
Protection de la vie privée des données Les applications AI impliquent souvent des données sensibles des utilisateurs, et la protection de la vie privée des données est particulièrement cruciale dans les domaines financier, médical et social. AI Layer 1 devrait garantir la vérifiabilité tout en adoptant des techniques de traitement des données basées sur le cryptage, des protocoles de calcul de la vie privée et des moyens de gestion des droits d'accès aux données, afin d'assurer la sécurité des données tout au long du processus d'inférence, de formation et de stockage, d'éviter efficacement les fuites de données et les abus, et d'éliminer les inquiétudes des utilisateurs concernant la sécurité des données.
Capacité de support et de développement d'un écosystème puissant En tant qu'infrastructure de base de Layer 1 native à l'IA, la plateforme doit non seulement posséder un leadership technologique, mais également fournir aux développeurs, aux opérateurs de nœuds, aux fournisseurs de services d'IA et à d'autres participants de l'écosystème des outils de développement complets, des SDK intégrés, un support opérationnel et des mécanismes d'incitation. En optimisant continuellement la disponibilité de la plateforme et l'expérience des développeurs, nous favorisons le déploiement d'applications variées et riches natives à l'IA, réalisant ainsi la prospérité continue d'un écosystème d'IA décentralisé.
Sur la base des contextes et attentes ci-dessus, cet article présentera en détail six projets représentatifs de l'IA Layer 1, dont Sentient, Sahara AI, Ritual, Gensyn, Bittensor et 0G, en organisant systématiquement les dernières avancées dans le domaine, en analysant l'état actuel des projets et en explorant les tendances futures.
Sentient : construire un modèle d'IA décentralisé open source fidèle
Aperçu du projet
Sentient est une plateforme de protocole open source qui construit une blockchain AI Layer1 (. La phase initiale est Layer 2, qui sera ensuite migrée vers Layer 1). En combinant la pipeline AI et la technologie blockchain, elle construit une économie décentralisée de l'intelligence artificielle. Son objectif principal est de résoudre les problèmes d'appartenance des modèles, de suivi des appels et de distribution de la valeur sur le marché LLM centralisé grâce au cadre "OML" (Ouvert, Rentable, Loyal), permettant aux modèles d'IA d'implémenter une structure de propriété on-chain, de rendre les appels transparents et de partager la valeur. La vision de Sentient est de permettre à quiconque de construire, collaborer, posséder et monétiser des produits IA, favorisant ainsi un écosystème de réseau AI Agent équitable et ouvert.
L'équipe de la Sentient Foundation regroupe des experts académiques de premier plan, des entrepreneurs en blockchain et des ingénieurs du monde entier, s'engageant à construire une plateforme AGI communautaire, open source et vérifiable. Les membres clés incluent le professeur Pramod Viswanath de l'Université de Princeton et le professeur Himanshu Tyagi de l'Institut Indien de Science, responsables respectivement de la sécurité et de la protection de la vie privée de l'IA, tandis que Sandeep Nailwal, cofondateur de Polygon, dirige la stratégie blockchain et l'écosystème. Les membres de l'équipe ont des antécédents dans des entreprises telles que Meta, Coinbase, Polygon, ainsi que dans des établissements d'enseignement supérieur de premier plan tels que l'Université de Princeton et l'Institut Indien de Technologie, couvrant des domaines tels que l'IA/ML, le NLP et la vision par ordinateur, travaillant ensemble pour faire avancer le projet.
En tant que projet de seconde entreprise de Sandeep Nailwal, co-fondateur de Polygon, Sentient a dès le départ bénéficié d'une aura, possédant des ressources riches, des contacts et une reconnaissance sur le marché, offrant un puissant soutien au développement du projet. À mi-2024, Sentient a complété un tour de financement de 85 millions de dollars, dirigé par Founders Fund, Pantera et Framework Ventures, avec d'autres investisseurs tels que Delphi, Hashkey et Spartan parmi des dizaines de VC.
conception de l'architecture et couche d'application
Infrastructure de base
Architecture de base
L'architecture centrale de Sentient est composée de deux parties : le pipeline d'IA (AI Pipeline) et le système de off-chain.
Les pipelines d'IA sont la base du développement et de l'entraînement des artefacts "IA fidèle", comprenant deux processus clés :
Le système de blockchain offre transparence et contrôle décentralisé pour les protocoles, garantissant la propriété des artefacts d'IA, le suivi de l'utilisation, la distribution des revenus et une gouvernance équitable. L'architecture spécifique est divisée en quatre couches :
Cadre de modèle OML
Le cadre OML (Open, Monetizable, Loyal) est le concept central proposé par Sentient, visant à fournir une protection claire de la propriété et des mécanismes d'incitation économique pour les modèles d'IA open source. En combinant la technologie off-chain et la cryptographie native à l'IA, il présente les caractéristiques suivantes :
Cryptographie native à l'IA (AI-native Cryptography)
La cryptographie native à l'IA utilise la continuité des modèles d'IA, la structure des variétés de faible dimension et les caractéristiques différentiables des modèles pour développer un mécanisme de sécurité léger "vérifiable mais non amovible". Sa technologie clé est :
Cette méthode permet de réaliser "l'appel d'autorisation basé sur le comportement + la vérification d'appartenance" sans coût de réencryption.
Cadre d'exécution sécurisé et de validation des modèles
Sentient utilise actuellement la sécurité hybride Melange : une combinaison de la vérification par empreinte digitale, de l'exécution TEE et de la répartition des revenus des contrats off-chain. La méthode d'empreinte digitale est réalisée par OML 1.0, mettant l'accent sur la pensée de "sécurité optimiste (Optimistic Security)", c'est-à-dire la conformité par défaut, avec détection et punition en cas de non-conformité.
Le mécanisme de signature est une mise en œuvre clé d'OML, qui permet au modèle de générer une signature unique pendant la phase d'entraînement en intégrant des paires "question-réponse" spécifiques. Grâce à ces signatures, le propriétaire du modèle peut vérifier la propriété, empêchant ainsi la copie et la commercialisation non autorisées. Ce mécanisme protège non seulement les droits des développeurs de modèles, mais fournit également un enregistrement traçable des comportements d'utilisation du modèle off-chain.
De plus, Sentient a lancé le cadre de calcul Enclave TEE, qui utilise des environnements d'exécution de confiance (comme AWS Nitro Enclaves) pour garantir que les modèles ne répondent qu'aux demandes autorisées, empêchant ainsi tout accès et utilisation non autorisés. Bien que le TEE dépende du matériel et présente certains risques de sécurité, ses avantages en termes de performance et de temps réel en font une technologie clé pour le déploiement actuel des modèles.
À l'avenir, Sentient prévoit d'introduire des technologies de preuve à divulgation nulle de connaissance (ZK) et de chiffrement homomorphe complet (FHE) pour renforcer davantage la protection de la vie privée et la vérifiabilité, offrant des solutions plus matures pour le déploiement décentralisé des modèles d'IA.