Fusion de l'IA et de DePIN : l'essor des réseaux GPU distribués
Depuis 2023, l'intelligence artificielle et les réseaux d'infrastructure physique décentralisés (DePIN) sont devenus deux grandes tendances dans le domaine du Web3. Ces deux domaines englobent divers protocoles différents, répondant à des besoins variés. Cet article explorera les points de convergence des deux et étudiera le développement des protocoles associés.
Dans la pile technologique de l'IA, le réseau DePIN permet à l'IA d'accéder à des ressources de calcul. En raison du développement des grandes entreprises technologiques entraînant une pénurie de GPU, d'autres développeurs ont du mal à obtenir suffisamment de GPU pour entraîner des modèles d'IA. La méthode traditionnelle consiste à choisir des fournisseurs de services cloud centralisés, mais cela nécessite de signer des contrats à long terme peu flexibles et peu efficaces.
Le réseau DePIN offre une alternative plus flexible et plus rentable. Il utilise des récompenses en tokens pour inciter à la contribution de ressources, en externalisant les ressources GPU des propriétaires individuels vers le réseau, créant ainsi une offre unifiée pour les utilisateurs ayant besoin d'accéder au matériel. Cela offre non seulement aux développeurs une personnalisation et un accès à la demande, mais également aux propriétaires de GPU un revenu supplémentaire.
Il existe plusieurs réseaux DePIN basés sur l'IA sur le marché, chacun ayant ses propres caractéristiques. Nous allons explorer ci-dessous les caractéristiques et les objectifs de quelques projets principaux :
Aperçu du réseau DePIN AI
Render est un pionnier du réseau P2P offrant des capacités de calcul GPU, initialement axé sur le rendu de création de contenu, puis élargissant à des tâches de calcul AI.
Intéressant :
Fondée par la société de graphisme en nuage OTOY, qui possède des technologies récompensées par un Oscar.
Le réseau GPU a été utilisé par de grandes entreprises du secteur du divertissement.
Collaborer avec Stability AI et d'autres pour intégrer des modèles d'IA et du rendu de contenu 3D
Approuver plusieurs clients de calcul, intégrer plus de GPU de réseaux DePIN.
Akash se positionne comme un "super cloud" alternatif aux plateformes cloud traditionnelles, prenant en charge le stockage, le calcul GPU et CPU.
Intéressant:
Pour une large gamme de tâches de calcul allant de l'informatique générale à l'hébergement web
AkashML permet d'exécuter de nombreux modèles sur Hugging Face
Hébergé quelques applications IA renommées, comme le robot de chat LLM de Mistral AI
Support des plateformes de métavers, de déploiement d'IA et d'apprentissage fédéré
io.net fournit un accès à des clusters de cloud GPU distribués, spécifiquement conçus pour les cas d'utilisation de l'IA et du ML.
Intérêt :
IO-SDK est compatible avec les principaux frameworks d'IA et peut s'étendre automatiquement en fonction des besoins.
Prend en charge la création de 3 types différents de clusters, pouvant être démarrés rapidement
Collaborer avec d'autres réseaux DePIN pour intégrer les ressources GPU
Gensyn offre des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond.
Point intéressant :
Réduction significative des coûts de calcul GPU
Prise en charge de l'ajustement des modèles de base pré-entraînés
Fournir un modèle de base décentralisé et partagé au niveau mondial
Aethir fournit des GPU de niveau entreprise, principalement utilisés dans les domaines de l'IA, de l'apprentissage automatique et des jeux en cloud.
Intérêt :
Élargir au domaine des services de cloud mobile
Établir des partenariats avec de grandes entreprises Web2 comme NVIDIA
Il y a plusieurs partenaires dans le domaine du Web3
Phala Network agit en tant que couche d'exécution pour les solutions AI Web3, utilisant l'environnement d'exécution de confiance (TEE) pour traiter les problèmes de confidentialité.
L'intérêt:
Agir en tant que protocole de coprocesseur de calcul vérifiable
Les contrats d'agent AI peuvent accéder aux meilleurs modèles de langage.
À l'avenir, plusieurs systèmes de preuve seront pris en charge.
Prévoyez de prendre en charge des GPU TEE tels que H100
Comparaison de projet
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Points clés | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | Intelligence artificielle, cloud gaming et télécommunications | Exécution de l'IA sur la chaîne |
| Type de tâche AI | Inférence | Les deux | Les deux | Entraînement | Entraînement | Exécution |
| Tarification du travail | Tarification basée sur la performance | Vente aux enchères inversée | Tarification de marché | Tarification de marché | Système d'appel d'offres | Calcul des droits |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Confidentialité des données | Chiffrement&hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Chiffrement | TEE |
| Frais de travail | Pour chaque travail 0,5-5% | 20% USDC, 4% AKT | 2% USDC, 0,25% frais de réserve | Frais peu élevés | 20% par session | Proportionnel au montant staké |
| Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais |
| Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE |
| Garantie de qualité | Controverse | - | - | Vérificateur et dénonciateur | Nœud vérificateur | Preuve à distance |
| GPU Cluster | Non | Oui | Oui | Oui | Oui | Non |
importance
Disponibilité du calcul en cluster et parallèle
Le cadre de calcul distribué a mis en place un cluster GPU, permettant d'entraîner des modèles d'IA complexes de manière plus efficace. La plupart des projets ont maintenant intégré des clusters pour réaliser des calculs parallèles. io.net a déployé avec succès un grand nombre de clusters. Bien que Render ne supporte pas les clusters, son fonctionnement est similaire. Phala ne supporte actuellement que le CPU, mais permet la mise en cluster des travailleurs CPU.
Confidentialité des données
Le développement de modèles d'IA nécessite l'utilisation de grandes quantités de données, ce qui peut impliquer des informations sensibles. La plupart des projets utilisent une forme de cryptage des données pour protéger la vie privée. io.net a lancé le cryptage homomorphe complet (FHE), permettant de traiter des données chiffrées sans décryptage. Phala Network a introduit un environnement d'exécution de confiance (TEE), qui empêche les processus externes d'accéder ou de modifier les données.
Calcul de la preuve d'achèvement et de l'inspection de la qualité
Certain projets généreront des preuves pour indiquer que le travail a été accompli et procéder à un contrôle de qualité. Gensyn et Aethir utilisent des validateurs et des nœuds de vérification pour garantir la qualité du service. Render recommande d'utiliser un processus de résolution des conflits. Phala générera une preuve TEE une fois terminé.
L'entraînement des modèles d'IA nécessite des GPU aux performances optimales, comme les A100 et H100 de Nvidia. Les performances d'inférence du H100 sont quatre fois plus rapides que celles de l'A100, ce qui en fait le choix privilégié. Les fournisseurs du marché décentralisé des GPU doivent non seulement offrir des prix plus bas pour rivaliser avec leurs homologues de Web2, mais aussi répondre aux besoins réels du marché.
io.net et Aethir ont chacun obtenu plus de 2000 unités H100/A100, mieux adaptées au calcul de grands modèles. Le coût de ces services GPU décentralisés est déjà beaucoup plus bas que celui des services centralisés.
Bien que les clusters de GPU connectés en réseau aient certaines limitations en matière de mémoire, ils restent une option puissante pour les utilisateurs ayant besoin de flexibilité. En offrant des alternatives plus rentables, ces réseaux créent des opportunités pour construire davantage de cas d'utilisation en IA et en ML.
fournit des GPU/CPU de niveau consommation
En plus des GPU haut de gamme, les GPU de consommation et les CPU jouent également un rôle dans le développement de modèles d'IA. Étant donné qu'une grande quantité de ressources GPU pour les consommateurs est inutilisée, certains projets offrent également des services à ce marché, développant leur propre créneau.
Conclusion
Le domaine de DePIN AI est encore relativement nouveau et fait face à des défis. Cependant, le nombre de tâches et de matériel exécutés sur ces réseaux GPU décentralisés a considérablement augmenté, soulignant la demande d'alternatives aux ressources matérielles des fournisseurs de cloud Web2.
En regardant vers l'avenir, le marché de l'IA présente de vastes perspectives, et ces réseaux GPU décentralisés joueront un rôle clé en offrant aux développeurs des solutions de calcul économiquement efficaces. En comblant continuellement l'écart entre la demande et l'offre, ces réseaux contribueront de manière significative à l'avenir du paysage de l'IA et de l'infrastructure de calcul.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
8
Partager
Commentaire
0/400
GateUser-9ad11037
· Il y a 2h
C'est tout ? C'est trop cher.
Voir l'originalRépondre0
DefiPlaybook
· Il y a 13h
Encore un nouveau moyen de se faire prendre pour des cons ?
Voir l'originalRépondre0
GasFeeNightmare
· Il y a 16h
À quatre heures du matin, je surveille pour miner, ne me demandez pas, c'est juste moi qui parle de GPU... C'est pas agréable de laisser le 3060ti miner tranquillement ?
Voir l'originalRépondre0
SignatureAnxiety
· Il y a 16h
Wouhou, les GPU vont être tous pris !
Voir l'originalRépondre0
MondayYoloFridayCry
· Il y a 16h
le prix des GPU est trop élevé, il est temps d'entrer dans une position
Voir l'originalRépondre0
notSatoshi1971
· Il y a 16h
Il y a aussi des façons de jouer avec la pénurie.
Voir l'originalRépondre0
JustHodlIt
· Il y a 16h
Le GPU est vraiment génial
Voir l'originalRépondre0
GateUser-44a00d6c
· Il y a 16h
Puissance de calcul si rare, ma 3090 à la maison pourrait aussi rapporter de l'argent.
L'émergence des réseaux GPU distribués combinés à l'IA et au DePIN
Fusion de l'IA et de DePIN : l'essor des réseaux GPU distribués
Depuis 2023, l'intelligence artificielle et les réseaux d'infrastructure physique décentralisés (DePIN) sont devenus deux grandes tendances dans le domaine du Web3. Ces deux domaines englobent divers protocoles différents, répondant à des besoins variés. Cet article explorera les points de convergence des deux et étudiera le développement des protocoles associés.
Dans la pile technologique de l'IA, le réseau DePIN permet à l'IA d'accéder à des ressources de calcul. En raison du développement des grandes entreprises technologiques entraînant une pénurie de GPU, d'autres développeurs ont du mal à obtenir suffisamment de GPU pour entraîner des modèles d'IA. La méthode traditionnelle consiste à choisir des fournisseurs de services cloud centralisés, mais cela nécessite de signer des contrats à long terme peu flexibles et peu efficaces.
Le réseau DePIN offre une alternative plus flexible et plus rentable. Il utilise des récompenses en tokens pour inciter à la contribution de ressources, en externalisant les ressources GPU des propriétaires individuels vers le réseau, créant ainsi une offre unifiée pour les utilisateurs ayant besoin d'accéder au matériel. Cela offre non seulement aux développeurs une personnalisation et un accès à la demande, mais également aux propriétaires de GPU un revenu supplémentaire.
Il existe plusieurs réseaux DePIN basés sur l'IA sur le marché, chacun ayant ses propres caractéristiques. Nous allons explorer ci-dessous les caractéristiques et les objectifs de quelques projets principaux :
Aperçu du réseau DePIN AI
Render est un pionnier du réseau P2P offrant des capacités de calcul GPU, initialement axé sur le rendu de création de contenu, puis élargissant à des tâches de calcul AI.
Intéressant :
Akash se positionne comme un "super cloud" alternatif aux plateformes cloud traditionnelles, prenant en charge le stockage, le calcul GPU et CPU.
Intéressant:
io.net fournit un accès à des clusters de cloud GPU distribués, spécifiquement conçus pour les cas d'utilisation de l'IA et du ML.
Intérêt :
Gensyn offre des capacités de calcul GPU axées sur l'apprentissage automatique et l'apprentissage profond.
Point intéressant :
Aethir fournit des GPU de niveau entreprise, principalement utilisés dans les domaines de l'IA, de l'apprentissage automatique et des jeux en cloud.
Intérêt :
Phala Network agit en tant que couche d'exécution pour les solutions AI Web3, utilisant l'environnement d'exécution de confiance (TEE) pour traiter les problèmes de confidentialité.
L'intérêt:
Comparaison de projet
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Matériel | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Points clés | Rendu graphique et IA | Cloud computing, rendu et IA | IA | IA | Intelligence artificielle, cloud gaming et télécommunications | Exécution de l'IA sur la chaîne | | Type de tâche AI | Inférence | Les deux | Les deux | Entraînement | Entraînement | Exécution | | Tarification du travail | Tarification basée sur la performance | Vente aux enchères inversée | Tarification de marché | Tarification de marché | Système d'appel d'offres | Calcul des droits | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Confidentialité des données | Chiffrement&hachage | Authentification mTLS | Chiffrement des données | Cartographie sécurisée | Chiffrement | TEE | | Frais de travail | Pour chaque travail 0,5-5% | 20% USDC, 4% AKT | 2% USDC, 0,25% frais de réserve | Frais peu élevés | 20% par session | Proportionnel au montant staké | | Sécurité | Preuve de rendu | Preuve de participation | Preuve de calcul | Preuve de participation | Preuve de capacité de rendu | Hérité de la chaîne relais | | Preuve de complétion | - | - | Preuve de verrouillage temporel | Preuve d'apprentissage | Preuve de travail de rendu | Preuve TEE | | Garantie de qualité | Controverse | - | - | Vérificateur et dénonciateur | Nœud vérificateur | Preuve à distance | | GPU Cluster | Non | Oui | Oui | Oui | Oui | Non |
importance
Disponibilité du calcul en cluster et parallèle
Le cadre de calcul distribué a mis en place un cluster GPU, permettant d'entraîner des modèles d'IA complexes de manière plus efficace. La plupart des projets ont maintenant intégré des clusters pour réaliser des calculs parallèles. io.net a déployé avec succès un grand nombre de clusters. Bien que Render ne supporte pas les clusters, son fonctionnement est similaire. Phala ne supporte actuellement que le CPU, mais permet la mise en cluster des travailleurs CPU.
Confidentialité des données
Le développement de modèles d'IA nécessite l'utilisation de grandes quantités de données, ce qui peut impliquer des informations sensibles. La plupart des projets utilisent une forme de cryptage des données pour protéger la vie privée. io.net a lancé le cryptage homomorphe complet (FHE), permettant de traiter des données chiffrées sans décryptage. Phala Network a introduit un environnement d'exécution de confiance (TEE), qui empêche les processus externes d'accéder ou de modifier les données.
Calcul de la preuve d'achèvement et de l'inspection de la qualité
Certain projets généreront des preuves pour indiquer que le travail a été accompli et procéder à un contrôle de qualité. Gensyn et Aethir utilisent des validateurs et des nœuds de vérification pour garantir la qualité du service. Render recommande d'utiliser un processus de résolution des conflits. Phala générera une preuve TEE une fois terminé.
Statistiques matérielles
| | Rendre | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Nombre de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Nombre de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Nombre de H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coût H100/heure | - | $1.46 | $1.19 | - | - | - | | Coût A100/heure | - | $1.37 | $1.50 | $0.55 ( prévu ) | $0.33 ( prévu ) | - |
Exigences des GPU haute performance
L'entraînement des modèles d'IA nécessite des GPU aux performances optimales, comme les A100 et H100 de Nvidia. Les performances d'inférence du H100 sont quatre fois plus rapides que celles de l'A100, ce qui en fait le choix privilégié. Les fournisseurs du marché décentralisé des GPU doivent non seulement offrir des prix plus bas pour rivaliser avec leurs homologues de Web2, mais aussi répondre aux besoins réels du marché.
io.net et Aethir ont chacun obtenu plus de 2000 unités H100/A100, mieux adaptées au calcul de grands modèles. Le coût de ces services GPU décentralisés est déjà beaucoup plus bas que celui des services centralisés.
Bien que les clusters de GPU connectés en réseau aient certaines limitations en matière de mémoire, ils restent une option puissante pour les utilisateurs ayant besoin de flexibilité. En offrant des alternatives plus rentables, ces réseaux créent des opportunités pour construire davantage de cas d'utilisation en IA et en ML.
fournit des GPU/CPU de niveau consommation
En plus des GPU haut de gamme, les GPU de consommation et les CPU jouent également un rôle dans le développement de modèles d'IA. Étant donné qu'une grande quantité de ressources GPU pour les consommateurs est inutilisée, certains projets offrent également des services à ce marché, développant leur propre créneau.
Conclusion
Le domaine de DePIN AI est encore relativement nouveau et fait face à des défis. Cependant, le nombre de tâches et de matériel exécutés sur ces réseaux GPU décentralisés a considérablement augmenté, soulignant la demande d'alternatives aux ressources matérielles des fournisseurs de cloud Web2.
En regardant vers l'avenir, le marché de l'IA présente de vastes perspectives, et ces réseaux GPU décentralisés joueront un rôle clé en offrant aux développeurs des solutions de calcul économiquement efficaces. En comblant continuellement l'écart entre la demande et l'offre, ces réseaux contribueront de manière significative à l'avenir du paysage de l'IA et de l'infrastructure de calcul.