L'intersection de l'IA et du DePIN : l'essor des réseaux de calcul GPU distribués
Depuis 2023, l'IA et le DePIN sont devenus des tendances populaires dans le domaine du Web3, avec une capitalisation boursière de l'IA d'environ 30 milliards de dollars et une capitalisation boursière du DePIN d'environ 23 milliards de dollars. Cet article se concentre sur le domaine d'intersection entre les deux et explore le développement des protocoles connexes.
Dans la pile technologique de l'IA, le réseau DePIN fournit une utilité à l'IA grâce à des ressources de calcul. Le développement des grandes entreprises technologiques a conduit à une pénurie de GPU, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour le calcul. Cela conduit souvent les développeurs à choisir des fournisseurs de cloud centralisés, mais en raison de la nécessité de signer des contrats à long terme pour du matériel haute performance peu flexibles, l'efficacité en souffre.
DePIN offre essentiellement une alternative plus flexible et plus rentable, utilisant des récompenses en tokens pour inciter les contributions de ressources qui correspondent aux objectifs du réseau. Le DePIN dans le domaine de l'IA externalise les ressources GPU des propriétaires individuels vers des centres de données, créant une offre unifiée pour les utilisateurs ayant besoin d'accéder au matériel. Ces réseaux DePIN offrent non seulement aux développeurs qui ont besoin de puissance de calcul de la personnalisation et un accès à la demande, mais fournissent également un revenu supplémentaire aux propriétaires de GPU.
Le marché compte de nombreux réseaux AI DePIN, cet article explorera le rôle, les objectifs et les points forts réalisés de chaque protocole.
Aperçu du réseau DePIN AI
Render est un pionnier des réseaux P2P offrant des capacités de calcul GPU, qui se concentrait auparavant sur le rendu graphique pour la création de contenu, et a ensuite élargi son champ d'application à des tâches de calcul allant des champs de rayonnement neural (NeRF) à l'IA générative grâce à l'intégration d'outils tels que Stable Diffusion.
Points forts:
Fondée par la société de graphisme en nuage OTOY, qui possède une technologie primée aux Oscars.
Le réseau GPU a été utilisé par de grandes entreprises du secteur du divertissement telles que Paramount Pictures, PUBG, Star Trek, etc.
Collaborer avec Stability AI et Endeavor pour intégrer les modèles d'IA dans le flux de travail de rendu de contenu 3D en utilisant le GPU de Render.
Approuver plusieurs clients de calcul, intégrer plus de GPU dans le réseau DePIN.
Akash se positionne comme une alternative "super cloud" aux plateformes traditionnelles de stockage, de calcul GPU et CPU comme AWS(. Grâce à des outils conviviaux pour les développeurs tels que la plateforme de conteneurs Akash et les nœuds de calcul gérés par Kubernetes, il permet le déploiement sans faille de logiciels à travers différents environnements, ce qui permet d'exécuter n'importe quelle application cloud-native.
Points forts:
Tâches de calcul variées allant du calcul général à l'hébergement réseau
AkashML permet à son réseau GPU d'exécuter plus de 15 000 modèles sur Hugging Face, tout en s'intégrant à Hugging Face.
Akash héberge certaines applications notables, telles que le chatbot basé sur le modèle LLM de Mistral AI, le modèle de conversion de texte en image SDXL de Stability AI, ainsi que le nouveau modèle de base AT-1 de Thumper AI.
La plateforme qui construit le métavers, déploie l'IA et apprend de manière fédérée utilise Supercloud.
io.net offre un accès à des clusters de cloud GPU distribués, spécialement conçus pour les cas d'utilisation de l'IA et du ML. Il agrège des GPU provenant de centres de données, de mineurs de cryptomonnaies et d'autres réseaux décentralisés. L'entreprise était auparavant une société de trading quantitatif, et après une forte augmentation des prix des GPU haute performance, elle a changé pour son activité actuelle.
Points forts:
Son IO-SDK est compatible avec des frameworks tels que PyTorch et Tensorflow, et sa architecture multi-niveaux peut s'adapter automatiquement aux besoins de calcul.
Prend en charge la création de 3 types différents de clusters, pouvant démarrer en 2 minutes.
Collaborer avec d'autres réseaux DePIN ) tels que Render, Filecoin, Aethir et Exabits (, en intégrant les ressources GPU.
Gensyn fournit des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond. Il prétend avoir mis en place un mécanisme de validation plus efficace que les méthodes existantes en combinant des concepts tels que la preuve d'apprentissage, un protocole de localisation précis basé sur des graphes, ainsi que des jeux d'incitation impliquant des fournisseurs de calcul par le biais de staking et de réductions.
Points forts:
Le coût horaire estimé d'un GPU équivalent V100 est d'environ 0,40 USD, ce qui permet d'importantes économies.
Grâce à l'empilement de preuves, il est possible d'affiner un modèle de base pré-entraîné pour accomplir des tâches plus spécifiques.
Ces modèles de base seront décentralisés et mondialement possédés, offrant des fonctionnalités supplémentaires en plus du réseau de calcul matériel.
Aethir est spécialement conçu pour les GPU d'entreprise, se concentrant sur les domaines intensifs en calcul, principalement l'IA, l'apprentissage automatique )ML(, le cloud gaming, etc. Les conteneurs de son réseau servent de points d'exécution virtuels pour les applications basées sur le cloud, transférant les charges de travail des appareils locaux vers les conteneurs, offrant ainsi une expérience à faible latence. Pour garantir un service de qualité aux utilisateurs, ils rapprochent les GPU des sources de données en fonction des besoins et de la localisation, ajustant ainsi les ressources.
Points forts:
En plus de l'IA et des jeux en cloud, Aethir s'est également étendu aux services de smartphone cloud, en collaboration avec APhone pour lancer un smartphone cloud décentralisé.
Établir une large collaboration avec des grandes entreprises Web2 telles que NVIDIA, Super Micro, HPE, Foxconn et Well Link.
Collaborer avec plusieurs partenaires dans Web3 comme CARV, Magic Eden, Sequence, Impossible Finance, etc. ).
Phala Network agit en tant que couche d'exécution pour les solutions AI Web3. Sa blockchain est une solution de cloud computing sans confiance, conçue pour traiter les problèmes de confidentialité grâce à l'utilisation d'environnements d'exécution de confiance (TEE). Sa couche d'exécution n'est pas utilisée comme couche de calcul pour les modèles AI, mais permet aux agents AI d'être contrôlés par des contrats intelligents sur la chaîne.
Points forts:
Agir en tant que protocole de coprocesseur pour des calculs vérifiables, tout en permettant aux agents IA d'accéder aux ressources sur la chaîne.
Son contrat d'agent AI peut obtenir des modèles de langage de premier plan tels qu'OpenAI, Llama, Claude et Hugging Face via Redpill.
L'avenir comprendra des systèmes de preuve multiples tels que les zk-proofs, le calcul multipartite (MPC), le cryptage entièrement homomorphe (FHE), etc.
À l'avenir, prise en charge de H100 et d'autres GPU TEE pour améliorer la capacité de calcul.
Comparaison de projet
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Points clés des affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, jeux cloud et télécommunications | Exécution IA sur la chaîne |
| Type de tâche IA | Inférence | Les deux | Les deux | Entraînement | Entraînement | Exécution |
| Prix du travail | Prix basé sur la performance | Enchère inversée | Prix de marché | Prix de marché | Système d'appel d'offres | Calcul des droits |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Confidentialité des données | Chiffrement & hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Chiffrement | TEE |
| Coûts de travail | Chaque travail 0,5-5% | 20% USDC, 4% AKT | 2% USDC, 0,25% frais de réserve | Frais peu élevés | Chaque session 20% | Proportionnel au montant staké |
| Sécurité | Preuve de rendu | Preuve d'équité | Preuve de calcul | Preuve d'équité | Preuve de capacité de rendu | Hérité de la chaîne relais |
| Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de rendu | Preuve TEE |
| Garantie de qualité | Controverse | - | - | Vérificateur et dénonciateur | Nœud de vérification | Preuve à distance |
| Cluster GPU | Non | Oui | Oui | Oui | Oui | Non |
( importance
Disponibilité du calcul en cluster et parallèle
Le cadre de calcul distribué a mis en œuvre un cluster GPU, offrant un entraînement plus efficace sans affecter l'exactitude du modèle, tout en améliorant l'évolutivité. L'entraînement de modèles AI complexes nécessite une puissance de calcul importante, et il faut généralement compter sur le calcul distribué pour répondre aux besoins. Le modèle GPT-4 d'OpenAI possède plus de 1,8 trillion de paramètres, et a été entraîné en 3-4 mois en utilisant environ 25 000 GPU Nvidia A100 dans 128 clusters.
Auparavant, Render et Akash ne proposaient que des GPU à usage unique, ce qui pouvait limiter la demande du marché pour les GPU. Cependant, la plupart des projets clés ont maintenant intégré des clusters pour réaliser des calculs parallèles. io.net collabore avec des projets tels que Render, Filecoin et Aethir pour intégrer davantage de GPU dans son réseau, et a réussi à déployer plus de 3 800 clusters au cours du premier trimestre de 24 ans. Bien que Render ne prenne pas en charge les clusters, son fonctionnement est similaire à celui des clusters, décomposant un seul cadre en plusieurs nœuds différents pour traiter simultanément différentes plages de cadres. Phala ne prend actuellement en charge que les CPU, mais permet la mise en cluster des travailleurs CPU.
Il est très important d'intégrer le cadre de cluster dans le réseau de workflow AI, mais le nombre et le type de GPU de cluster nécessaires pour répondre aux besoins des développeurs AI est une autre question.
Confidentialité des données
Le développement de modèles d'IA nécessite l'utilisation de grands ensembles de données, qui peuvent provenir de diverses sources et prendre différentes formes. Les ensembles de données sensibles peuvent risquer d'être exposés aux fournisseurs de modèles. Il est essentiel de prendre des mesures de sécurité adéquates lors de l'utilisation de l'IA. Par conséquent, disposer de diverses méthodes de protection des données est crucial pour restituer le contrôle des données aux fournisseurs de données.
La plupart des projets utilisent une forme de cryptage des données pour protéger la vie privée des données. Render utilise le cryptage et le traitement par hachage lors de la publication des résultats de rendu sur le réseau, tandis que io.net et Gensyn adoptent une forme de cryptage des données. Akash utilise l'authentification mTLS, permettant uniquement aux fournisseurs sélectionnés par le locataire de recevoir des données.
io.net a récemment collaboré avec Mind Network pour lancer le chiffrement homomorphe complet )FHE###, permettant de traiter des données chiffrées sans avoir besoin de les déchiffrer au préalable. Cette innovation peut mieux garantir la confidentialité des données que les technologies de chiffrement existantes.
Phala Network a introduit l'environnement d'exécution de confiance (TEE), qui est la zone sécurisée dans le processeur principal de l'appareil connecté. Grâce à ce mécanisme d'isolement, il peut empêcher les processus externes d'accéder ou de modifier les données, quel que soit leur niveau de permission. En plus de TEE, il a également intégré l'utilisation de zk-proofs dans son vérificateur zkDCAP et son interface de ligne de commande jtee, afin de s'intégrer aux programmes avec RiscZero zkVM.
( Preuve de calcul terminé et contrôle de qualité
Ces projets offrent des GPU capables de fournir des capacités de calcul pour une gamme de services. Étant donné la diversité des services, allant du rendu graphique au calcul AI, la qualité finale de ces tâches peut ne pas toujours répondre aux normes des utilisateurs. Une preuve de réalisation peut être utilisée pour indiquer que le GPU spécifique loué par l'utilisateur a bien été utilisé pour exécuter le service requis, et les contrôles de qualité sont bénéfiques pour les utilisateurs demandant l'achèvement de tels travaux.
Après le calcul, Gensyn et Aethir génèrent tous deux des preuves indiquant que le travail est terminé, tandis que la preuve de io.net indique que les performances du GPU loué ont été pleinement exploitées et qu'il n'y a eu aucun problème. Gensyn et Aethir effectuent tous deux un contrôle de qualité sur les calculs terminés. Pour Gensyn, il utilise des validateurs pour relancer une partie du contenu des preuves générées afin de les vérifier, tandis que le dénonciateur sert de couche supplémentaire de vérification pour les validateurs. Aethir utilise des nœuds de vérification pour déterminer la qualité du service et sanctionne les services en dessous des normes. Render recommande d'utiliser un processus de résolution de conflits ; si le comité d'examen découvre des problèmes avec un nœud, celui-ci sera réduit. Phala génère une preuve TEE une fois terminé, garantissant que l'agent IA exécute les opérations requises sur la chaîne.
En raison des exigences de performance élevées pour l'entraînement des modèles d'IA, les développeurs préfèrent utiliser des GPU tels que le Nvidia A100 et H100. Les performances d'inférence du H100 sont 4 fois plus rapides que celles de l'A100.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
18 J'aime
Récompense
18
4
Partager
Commentaire
0/400
GasFeeCrier
· Il y a 16h
Pourquoi tous les projets se tournent-ils vers l'IA ?
Voir l'originalRépondre0
MissedTheBoat
· Il y a 16h
Cette chose peut vraiment être fiable ? Mon petit atelier de Rig de minage ne peut tout simplement pas miner.
Voir l'originalRépondre0
HodlNerd
· Il y a 16h
d'un point de vue statistique, les réseaux GPU distribués pourraient être notre meilleure chance de briser l'oligopole de l'IA... une théorie des jeux fascinante à l'œuvre ici, pour être honnête.
Voir l'originalRépondre0
SatoshiSherpa
· Il y a 16h
Vous auriez dû dire que c'était un travail de cuisson de cartes graphiques.
L'intégration de l'IA et de DePIN, l'émergence des réseaux de calcul GPU distribués
L'intersection de l'IA et du DePIN : l'essor des réseaux de calcul GPU distribués
Depuis 2023, l'IA et le DePIN sont devenus des tendances populaires dans le domaine du Web3, avec une capitalisation boursière de l'IA d'environ 30 milliards de dollars et une capitalisation boursière du DePIN d'environ 23 milliards de dollars. Cet article se concentre sur le domaine d'intersection entre les deux et explore le développement des protocoles connexes.
Dans la pile technologique de l'IA, le réseau DePIN fournit une utilité à l'IA grâce à des ressources de calcul. Le développement des grandes entreprises technologiques a conduit à une pénurie de GPU, rendant difficile pour d'autres développeurs d'obtenir suffisamment de GPU pour le calcul. Cela conduit souvent les développeurs à choisir des fournisseurs de cloud centralisés, mais en raison de la nécessité de signer des contrats à long terme pour du matériel haute performance peu flexibles, l'efficacité en souffre.
DePIN offre essentiellement une alternative plus flexible et plus rentable, utilisant des récompenses en tokens pour inciter les contributions de ressources qui correspondent aux objectifs du réseau. Le DePIN dans le domaine de l'IA externalise les ressources GPU des propriétaires individuels vers des centres de données, créant une offre unifiée pour les utilisateurs ayant besoin d'accéder au matériel. Ces réseaux DePIN offrent non seulement aux développeurs qui ont besoin de puissance de calcul de la personnalisation et un accès à la demande, mais fournissent également un revenu supplémentaire aux propriétaires de GPU.
Le marché compte de nombreux réseaux AI DePIN, cet article explorera le rôle, les objectifs et les points forts réalisés de chaque protocole.
Aperçu du réseau DePIN AI
Render est un pionnier des réseaux P2P offrant des capacités de calcul GPU, qui se concentrait auparavant sur le rendu graphique pour la création de contenu, et a ensuite élargi son champ d'application à des tâches de calcul allant des champs de rayonnement neural (NeRF) à l'IA générative grâce à l'intégration d'outils tels que Stable Diffusion.
Points forts:
Fondée par la société de graphisme en nuage OTOY, qui possède une technologie primée aux Oscars.
Le réseau GPU a été utilisé par de grandes entreprises du secteur du divertissement telles que Paramount Pictures, PUBG, Star Trek, etc.
Collaborer avec Stability AI et Endeavor pour intégrer les modèles d'IA dans le flux de travail de rendu de contenu 3D en utilisant le GPU de Render.
Approuver plusieurs clients de calcul, intégrer plus de GPU dans le réseau DePIN.
Akash se positionne comme une alternative "super cloud" aux plateformes traditionnelles de stockage, de calcul GPU et CPU comme AWS(. Grâce à des outils conviviaux pour les développeurs tels que la plateforme de conteneurs Akash et les nœuds de calcul gérés par Kubernetes, il permet le déploiement sans faille de logiciels à travers différents environnements, ce qui permet d'exécuter n'importe quelle application cloud-native.
Points forts:
Tâches de calcul variées allant du calcul général à l'hébergement réseau
AkashML permet à son réseau GPU d'exécuter plus de 15 000 modèles sur Hugging Face, tout en s'intégrant à Hugging Face.
Akash héberge certaines applications notables, telles que le chatbot basé sur le modèle LLM de Mistral AI, le modèle de conversion de texte en image SDXL de Stability AI, ainsi que le nouveau modèle de base AT-1 de Thumper AI.
La plateforme qui construit le métavers, déploie l'IA et apprend de manière fédérée utilise Supercloud.
io.net offre un accès à des clusters de cloud GPU distribués, spécialement conçus pour les cas d'utilisation de l'IA et du ML. Il agrège des GPU provenant de centres de données, de mineurs de cryptomonnaies et d'autres réseaux décentralisés. L'entreprise était auparavant une société de trading quantitatif, et après une forte augmentation des prix des GPU haute performance, elle a changé pour son activité actuelle.
Points forts:
Son IO-SDK est compatible avec des frameworks tels que PyTorch et Tensorflow, et sa architecture multi-niveaux peut s'adapter automatiquement aux besoins de calcul.
Prend en charge la création de 3 types différents de clusters, pouvant démarrer en 2 minutes.
Collaborer avec d'autres réseaux DePIN ) tels que Render, Filecoin, Aethir et Exabits (, en intégrant les ressources GPU.
Gensyn fournit des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond. Il prétend avoir mis en place un mécanisme de validation plus efficace que les méthodes existantes en combinant des concepts tels que la preuve d'apprentissage, un protocole de localisation précis basé sur des graphes, ainsi que des jeux d'incitation impliquant des fournisseurs de calcul par le biais de staking et de réductions.
Points forts:
Le coût horaire estimé d'un GPU équivalent V100 est d'environ 0,40 USD, ce qui permet d'importantes économies.
Grâce à l'empilement de preuves, il est possible d'affiner un modèle de base pré-entraîné pour accomplir des tâches plus spécifiques.
Ces modèles de base seront décentralisés et mondialement possédés, offrant des fonctionnalités supplémentaires en plus du réseau de calcul matériel.
Aethir est spécialement conçu pour les GPU d'entreprise, se concentrant sur les domaines intensifs en calcul, principalement l'IA, l'apprentissage automatique )ML(, le cloud gaming, etc. Les conteneurs de son réseau servent de points d'exécution virtuels pour les applications basées sur le cloud, transférant les charges de travail des appareils locaux vers les conteneurs, offrant ainsi une expérience à faible latence. Pour garantir un service de qualité aux utilisateurs, ils rapprochent les GPU des sources de données en fonction des besoins et de la localisation, ajustant ainsi les ressources.
Points forts:
En plus de l'IA et des jeux en cloud, Aethir s'est également étendu aux services de smartphone cloud, en collaboration avec APhone pour lancer un smartphone cloud décentralisé.
Établir une large collaboration avec des grandes entreprises Web2 telles que NVIDIA, Super Micro, HPE, Foxconn et Well Link.
Collaborer avec plusieurs partenaires dans Web3 comme CARV, Magic Eden, Sequence, Impossible Finance, etc. ).
Phala Network agit en tant que couche d'exécution pour les solutions AI Web3. Sa blockchain est une solution de cloud computing sans confiance, conçue pour traiter les problèmes de confidentialité grâce à l'utilisation d'environnements d'exécution de confiance (TEE). Sa couche d'exécution n'est pas utilisée comme couche de calcul pour les modèles AI, mais permet aux agents AI d'être contrôlés par des contrats intelligents sur la chaîne.
Points forts:
Agir en tant que protocole de coprocesseur pour des calculs vérifiables, tout en permettant aux agents IA d'accéder aux ressources sur la chaîne.
Son contrat d'agent AI peut obtenir des modèles de langage de premier plan tels qu'OpenAI, Llama, Claude et Hugging Face via Redpill.
L'avenir comprendra des systèmes de preuve multiples tels que les zk-proofs, le calcul multipartite (MPC), le cryptage entièrement homomorphe (FHE), etc.
À l'avenir, prise en charge de H100 et d'autres GPU TEE pour améliorer la capacité de calcul.
Comparaison de projet
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points clés des affaires | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | IA, jeux cloud et télécommunications | Exécution IA sur la chaîne | | Type de tâche IA | Inférence | Les deux | Les deux | Entraînement | Entraînement | Exécution | | Prix du travail | Prix basé sur la performance | Enchère inversée | Prix de marché | Prix de marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Chiffrement & hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Chiffrement | TEE | | Coûts de travail | Chaque travail 0,5-5% | 20% USDC, 4% AKT | 2% USDC, 0,25% frais de réserve | Frais peu élevés | Chaque session 20% | Proportionnel au montant staké | | Sécurité | Preuve de rendu | Preuve d'équité | Preuve de calcul | Preuve d'équité | Preuve de capacité de rendu | Hérité de la chaîne relais | | Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérificateur et dénonciateur | Nœud de vérification | Preuve à distance | | Cluster GPU | Non | Oui | Oui | Oui | Oui | Non |
( importance
Disponibilité du calcul en cluster et parallèle
Le cadre de calcul distribué a mis en œuvre un cluster GPU, offrant un entraînement plus efficace sans affecter l'exactitude du modèle, tout en améliorant l'évolutivité. L'entraînement de modèles AI complexes nécessite une puissance de calcul importante, et il faut généralement compter sur le calcul distribué pour répondre aux besoins. Le modèle GPT-4 d'OpenAI possède plus de 1,8 trillion de paramètres, et a été entraîné en 3-4 mois en utilisant environ 25 000 GPU Nvidia A100 dans 128 clusters.
Auparavant, Render et Akash ne proposaient que des GPU à usage unique, ce qui pouvait limiter la demande du marché pour les GPU. Cependant, la plupart des projets clés ont maintenant intégré des clusters pour réaliser des calculs parallèles. io.net collabore avec des projets tels que Render, Filecoin et Aethir pour intégrer davantage de GPU dans son réseau, et a réussi à déployer plus de 3 800 clusters au cours du premier trimestre de 24 ans. Bien que Render ne prenne pas en charge les clusters, son fonctionnement est similaire à celui des clusters, décomposant un seul cadre en plusieurs nœuds différents pour traiter simultanément différentes plages de cadres. Phala ne prend actuellement en charge que les CPU, mais permet la mise en cluster des travailleurs CPU.
Il est très important d'intégrer le cadre de cluster dans le réseau de workflow AI, mais le nombre et le type de GPU de cluster nécessaires pour répondre aux besoins des développeurs AI est une autre question.
Confidentialité des données
Le développement de modèles d'IA nécessite l'utilisation de grands ensembles de données, qui peuvent provenir de diverses sources et prendre différentes formes. Les ensembles de données sensibles peuvent risquer d'être exposés aux fournisseurs de modèles. Il est essentiel de prendre des mesures de sécurité adéquates lors de l'utilisation de l'IA. Par conséquent, disposer de diverses méthodes de protection des données est crucial pour restituer le contrôle des données aux fournisseurs de données.
La plupart des projets utilisent une forme de cryptage des données pour protéger la vie privée des données. Render utilise le cryptage et le traitement par hachage lors de la publication des résultats de rendu sur le réseau, tandis que io.net et Gensyn adoptent une forme de cryptage des données. Akash utilise l'authentification mTLS, permettant uniquement aux fournisseurs sélectionnés par le locataire de recevoir des données.
io.net a récemment collaboré avec Mind Network pour lancer le chiffrement homomorphe complet )FHE###, permettant de traiter des données chiffrées sans avoir besoin de les déchiffrer au préalable. Cette innovation peut mieux garantir la confidentialité des données que les technologies de chiffrement existantes.
Phala Network a introduit l'environnement d'exécution de confiance (TEE), qui est la zone sécurisée dans le processeur principal de l'appareil connecté. Grâce à ce mécanisme d'isolement, il peut empêcher les processus externes d'accéder ou de modifier les données, quel que soit leur niveau de permission. En plus de TEE, il a également intégré l'utilisation de zk-proofs dans son vérificateur zkDCAP et son interface de ligne de commande jtee, afin de s'intégrer aux programmes avec RiscZero zkVM.
( Preuve de calcul terminé et contrôle de qualité
Ces projets offrent des GPU capables de fournir des capacités de calcul pour une gamme de services. Étant donné la diversité des services, allant du rendu graphique au calcul AI, la qualité finale de ces tâches peut ne pas toujours répondre aux normes des utilisateurs. Une preuve de réalisation peut être utilisée pour indiquer que le GPU spécifique loué par l'utilisateur a bien été utilisé pour exécuter le service requis, et les contrôles de qualité sont bénéfiques pour les utilisateurs demandant l'achèvement de tels travaux.
Après le calcul, Gensyn et Aethir génèrent tous deux des preuves indiquant que le travail est terminé, tandis que la preuve de io.net indique que les performances du GPU loué ont été pleinement exploitées et qu'il n'y a eu aucun problème. Gensyn et Aethir effectuent tous deux un contrôle de qualité sur les calculs terminés. Pour Gensyn, il utilise des validateurs pour relancer une partie du contenu des preuves générées afin de les vérifier, tandis que le dénonciateur sert de couche supplémentaire de vérification pour les validateurs. Aethir utilise des nœuds de vérification pour déterminer la qualité du service et sanctionne les services en dessous des normes. Render recommande d'utiliser un processus de résolution de conflits ; si le comité d'examen découvre des problèmes avec un nœud, celui-ci sera réduit. Phala génère une preuve TEE une fois terminé, garantissant que l'agent IA exécute les opérations requises sur la chaîne.
Statistiques matérielles
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Quantité H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | 1,46 $ | 1,19 $ | - | - | - | | Coût A100/heure | - | 1,37 $ | 1,50 $ | 0,55 $ ) prévu ### | 0,33 $ ( prévu ) | - |
( Exigences des GPU haute performance
En raison des exigences de performance élevées pour l'entraînement des modèles d'IA, les développeurs préfèrent utiliser des GPU tels que le Nvidia A100 et H100. Les performances d'inférence du H100 sont 4 fois plus rapides que celles de l'A100.