Décentralisation du stockage : quel est le chemin à parcourir ?
Le stockage a été l'une des pistes les plus populaires de l'industrie de la blockchain. Filecoin, en tant que projet phare du précédent marché haussier, a atteint une capitalisation boursière de plus de 10 milliards de dollars à un moment donné. Arweave se concentre sur le stockage permanent, atteignant une capitalisation boursière maximale de 3,5 milliards de dollars. Mais avec la disponibilité du stockage de données froides remise en question, les perspectives de développement du stockage décentralisé sont également mises en doute. Récemment, l'apparition de Walrus a apporté une nouvelle attention à une piste de stockage longtemps silencieuse, tandis que le projet Shelby lancé par Aptos et Jump Crypto tente de faire des percées dans le domaine du stockage de données chaudes. Cet article analysera l'évolution narrative du stockage décentralisé à partir des trajectoires de développement des quatre projets : Filecoin, Arweave, Walrus et Shelby, et explorera ses orientations de développement futures.
Filecoin : l'essence des cryptomonnaies sous l'apparence du stockage
Filecoin est l'un des projets de cryptomonnaie émergents, dont le développement s'articule autour de la Décentralisation. Filecoin cherche à combiner le stockage et la Décentralisation, afin de résoudre le problème de confiance envers les fournisseurs de services de stockage de données centralisés. Cependant, certains compromis faits pour réaliser la Décentralisation sont devenus par la suite des points sensibles que d'autres projets tentent de résoudre. Pour comprendre que Filecoin est essentiellement un projet de monnaie minière, il est nécessaire de connaître les limites de sa technologie sous-jacente IPFS en matière de traitement des données chaudes.
IPFS: le goulot d'étranglement de transmission de l'architecture de Décentralisation
IPFS(Système de fichiers interplanétaires) a été lancé vers 2015, visant à bouleverser le protocole HTTP traditionnel par l'adressage de contenu. Cependant, le plus grand problème d'IPFS est sa vitesse d'acquisition très lente. À une époque où les services de données traditionnels peuvent atteindre des temps de réponse de l'ordre de la milliseconde, obtenir un fichier via IPFS prend encore une dizaine de secondes, ce qui rend son adoption difficile dans des applications pratiques. À part quelques projets de blockchain, IPFS est rarement adopté par les industries traditionnelles.
Le protocole P2P sous-jacent d'IPFS est principalement adapté aux "données froides", c'est-à-dire aux contenus statiques qui changent peu. En ce qui concerne les données chaudes, telles que les pages web dynamiques, les jeux en ligne ou les applications d'IA, le protocole P2P n'a pas d'avantage évident par rapport aux CDN traditionnels.
Bien que l'IPFS ne soit pas lui-même une blockchain, son design en graphe acyclique orienté (DAG) s'aligne hautement avec de nombreuses blockchains et protocoles Web3, ce qui le rend intrinsèquement adapté en tant que cadre sous-jacent pour les blockchains. Ainsi, même en l'absence de valeur utilitaire, l'IPFS en tant que cadre sous-jacent pour porter le récit de la blockchain est déjà suffisant. Les premiers projets de clones n'avaient besoin que d'un cadre fonctionnel pour commencer leur grand projet, mais avec le développement de Filecoin, les problèmes apportés par l'IPFS commencent également à entraver son avancée.
Logique des pièces de monnaie sous l'enveloppe de stockage
Le design d'IPFS a pour but de permettre aux utilisateurs de stocker des données tout en devenant une partie du réseau de stockage. Cependant, en l'absence d'incitations économiques, il est difficile pour les utilisateurs d'utiliser volontairement ce système, sans parler de devenir des nœuds de stockage actifs. Cela signifie que la plupart des utilisateurs ne stockeront des fichiers que sur IPFS sans contribuer leur propre espace de stockage ou stocker les fichiers des autres. C'est dans ce contexte que Filecoin est né.
Le modèle économique des tokens de Filecoin comprend trois principaux rôles : les utilisateurs paient des frais pour stocker des données ; les mineurs de stockage reçoivent des récompenses en tokens pour le stockage des données des utilisateurs ; les mineurs de récupération fournissent des données lorsque les utilisateurs en ont besoin et obtiennent des récompenses.
Ce modèle présente un espace potentiel pour des actes malveillants. Les mineurs de stockage peuvent, après avoir fourni de l'espace de stockage, remplir des données inutiles pour obtenir des récompenses. Étant donné que ces données inutiles ne seront pas récupérées, même si elles sont perdues, cela ne déclenchera pas le mécanisme de pénalité pour les mineurs de stockage. Cela permet aux mineurs de stockage de supprimer les données inutiles et de répéter ce processus. Le consensus de preuve de réplication de Filecoin ne peut garantir que les données des utilisateurs n'ont pas été supprimées sans autorisation, mais ne peut pas empêcher les mineurs de remplir des données inutiles.
Le fonctionnement de Filecoin repose en grande partie sur l'investissement continu des mineurs dans l'économie des jetons, plutôt que sur la véritable demande des utilisateurs finaux pour le stockage décentralisé. Bien que le projet soit encore en cours d'itération, à ce stade, la construction de l'écosystème de Filecoin correspond davantage à une position de "logique de minage" qu'à celle d'un projet de stockage "piloté par l'application".
Arweave : réussi grâce au long-termisme, échoué à cause du long-termisme
Si l'objectif de Filecoin est de construire un cadre "cloud de données" décentralisé, incitatif et vérifiable, alors Arweave s'est dirigé vers un autre extrême en matière de stockage : fournir une capacité de stockage permanent pour les données. Arweave ne tente pas de construire une plateforme de calcul distribué, son système entier repose sur une hypothèse centrale - les données importantes devraient être stockées une fois pour toutes et conservées pour toujours sur le réseau. Ce long-termisme extrême fait qu'Arweave diffère de Filecoin en termes de mécanisme, de modèle d'incitation, de besoins matériels et de perspective narrative.
Arweave se concentre sur Bitcoin comme objet d'apprentissage, cherchant à optimiser continuellement son réseau de stockage permanent sur de longues périodes mesurées en années. Arweave ne se soucie pas du marketing, ni des concurrents ou des tendances du marché. Elle avance simplement sur le chemin de l'itération de l'architecture du réseau, même si personne ne s'y intéresse, car c'est l'essence même de l'équipe de développement d'Arweave : le long-termisme. Grâce à ce long-termisme, Arweave a été chaleureusement accueillie lors du dernier marché haussier ; et en raison de ce long-termisme, même après avoir touché le fond, Arweave pourrait encore survivre à plusieurs cycles haussiers et baissiers. Mais la question demeure : y a-t-il une place pour Arweave dans le stockage décentralisé de demain ? La valeur d'existence du stockage permanent ne peut être prouvée que par le temps.
Le réseau principal d'Arweave est passé de la version 1.5 à la version 2.9 récente. Bien qu'il ait perdu l'attention du marché, il s'est toujours efforcé de permettre à un plus large éventail de mineurs de participer au réseau à un coût minimal, et d'inciter les mineurs à stocker des données au maximum, ce qui améliore continuellement la robustesse de l'ensemble du réseau. Arweave est conscient de ne pas correspondre aux préférences du marché, et a adopté une approche conservatrice, n'embrassant pas les groupes de mineurs, avec un écosystème complètement stagné, mettant à jour le réseau principal à coût minimal, tout en réduisant continuellement le seuil matériel sans compromettre la sécurité du réseau.
Rétrospective de la mise à niveau de 1.5-2.9
La version 1.5 d'Arweave a révélé une vulnérabilité permettant aux mineurs de s'appuyer sur l'empilement de GPU plutôt que sur un stockage réel pour optimiser leurs chances de création de blocs. Pour contrer cette tendance, la version 1.7 a introduit l'algorithme RandomX, limitant l'utilisation de la puissance de calcul spécialisée et exigeant que des CPU généraux participent au minage, afin de réduire la Décentralisation de la puissance de calcul.
Dans la version 2.0, Arweave adopte SPoA, transformant la preuve de données en un chemin succinct de structure d'arbre de Merkle, et introduit les transactions au format 2 pour réduire la charge de synchronisation. Cette architecture soulage la pression sur la bande passante du réseau, améliorant considérablement la capacité de coopération des nœuds. Cependant, certains mineurs peuvent toujours contourner la responsabilité de la détention réelle des données grâce à des stratégies de pools de stockage centralisés à haute vitesse.
Pour corriger ce biais, la version 2.4 a introduit le mécanisme SPoRA, qui intègre un index global et un accès aléatoire à hachage lent, obligeant les mineurs à détenir réellement des blocs de données pour participer à la génération de blocs valides, ce qui affaiblit mécaniquement l'effet d'accumulation de puissance de calcul. En conséquence, les mineurs ont commencé à se concentrer sur la vitesse d'accès au stockage, stimulant l'application des SSD et des dispositifs de lecture/écriture haute vitesse. La version 2.6 a introduit une chaîne de hachage pour contrôler le rythme de génération des blocs, équilibrant l'utilité marginale des équipements hautes performances et offrant un espace de participation équitable pour les mineurs de petite et moyenne taille.
Les versions ultérieures renforcent encore la capacité de collaboration réseau et la diversité de stockage : la version 2.7 ajoute le minage collaboratif et le mécanisme de pool de minage, améliorant la compétitivité des petits mineurs ; la version 2.8 lance un mécanisme de packaging composite, permettant aux équipements à faible vitesse et à grande capacité de participer de manière flexible ; et la version 2.9 introduit un nouveau processus de packaging au format replica_2_9, augmentant considérablement l'efficacité et réduisant la dépendance computationnelle, complétant ainsi le modèle de minage orienté données.
Dans l'ensemble, la feuille de route de mise à niveau d'Arweave présente clairement sa stratégie à long terme axée sur le stockage : tout en continuant à résister à la tendance de concentration des pouvoirs de calcul, elle réduit continuellement les barrières à l'entrée, garantissant la possibilité de fonctionnement à long terme du protocole.
Walrus : Embrasser les données chaudes est-il un battage médiatique ou a-t-il un sens plus profond ?
La conception de Walrus est complètement différente de celle de Filecoin et d'Arweave. Le point de départ de Filecoin est de créer un système de stockage décentralisé et vérifiable, au prix du stockage de données froides ; le point de départ d'Arweave est de créer une bibliothèque d'Alexandrie en chaîne capable de stocker des données de manière permanente, au prix d'un nombre d'applications trop limité ; le point de départ de Walrus est d'optimiser le coût de stockage du protocole de stockage de données chaudes.
Modifications magiques du code de correction d'erreurs : innovation des coûts ou vieux vin dans de nouvelles bouteilles ?
En matière de conception des coûts de stockage, Walrus estime que les frais de stockage de Filecoin et d'Arweave ne sont pas raisonnables. Ces deux derniers utilisent une architecture de réplication complète, dont l'avantage principal est que chaque nœud possède une copie complète, offrant ainsi une forte tolérance aux pannes et une indépendance entre les nœuds. Ce type d'architecture garantit qu même si certains nœuds sont hors ligne, le réseau conserve la disponibilité des données. Cependant, cela signifie également que le système nécessite une redondance de plusieurs copies pour maintenir la robustesse, ce qui augmente les coûts de stockage. En particulier dans la conception d'Arweave, le mécanisme de consensus lui-même encourage le stockage redondant sur les nœuds pour renforcer la sécurité des données. En revanche, Filecoin est plus flexible en matière de contrôle des coûts, mais cela implique que certains stockages à faible coût peuvent présenter un risque accru de perte de données. Walrus tente de trouver un équilibre entre les deux, son mécanisme contrôlant les coûts de réplication tout en renforçant la disponibilité par le biais d'une redondance structurée, établissant ainsi un nouveau compromis entre la disponibilité des données et l'efficacité des coûts.
La technologie Redstuff, créée par Walrus, est la clé pour réduire la redondance des nœuds. Elle est dérivée du codage Reed-Solomon ( RS ). Le codage RS est un algorithme de code correcteur très traditionnel; le code correcteur est une technique qui permet de doubler un ensemble de données en ajoutant des fragments redondants, ce qui peut être utilisé pour reconstruire les données d'origine. Des CD-ROM aux communications par satellite en passant par les codes QR, il est fréquemment utilisé dans la vie quotidienne.
Les codes de correction d'erreurs permettent aux utilisateurs d'obtenir un bloc, par exemple de 1 Mo, puis de "l'agrandir" à 2 Mo, où le 1 Mo supplémentaire est constitué de données spéciales appelées codes de correction d'erreurs. Si un quelconque octet du bloc est perdu, l'utilisateur peut facilement récupérer ces octets grâce au code. Même si jusqu'à 1 Mo de bloc est perdu, l'ensemble du bloc peut être récupéré. La même technique permet aux ordinateurs de lire toutes les données d'un CD-ROM, même s'il est endommagé.
Actuellement, le code RS est le plus couramment utilisé. La méthode de mise en œuvre consiste à partir de k blocs d'information, à construire un polynôme associé, puis à l'évaluer à différentes coordonnées x pour obtenir des blocs codés. En utilisant le code de correction d'erreur RS, la probabilité de perdre de gros blocs de données par échantillonnage aléatoire est très faible.
Prenons un exemple : divisez un fichier en 6 blocs de données et 4 blocs de parité, soit un total de 10 parts. Il suffit de conserver 6 de ces parts pour pouvoir restaurer complètement les données d'origine.
Avantages : forte tolérance aux pannes, largement utilisé dans les CD/DVD, les systèmes RAID (, ainsi que les systèmes de stockage en cloud ) tels qu'Azure Storage, Facebook F4(.
Inconvénients : décodage complexe à calculer, coûts élevés ; pas adapté aux scénarios de données à changement fréquent. Par conséquent, il est généralement utilisé pour la récupération et la planification des données dans des environnements centralisés hors chaîne.
Dans une architecture décentralisée, Storj et Sia ont ajusté le codage RS traditionnel pour répondre aux besoins réels des réseaux distribués. Walrus a également proposé sa propre variante - l'algorithme de codage RedStuff, afin de réaliser un mécanisme de stockage redondant à coût réduit et plus flexible.
Quelle est la principale caractéristique de Redstuff ? Grâce à l'amélioration de l'algorithme de codage de correction d'erreurs, Walrus peut rapidement et de manière robuste coder des blocs de données non structurées en plus petits fragments, qui seront stockés de manière distribuée dans un réseau de nœuds de stockage. Même si jusqu'à deux tiers des fragments sont perdus, il est possible de reconstruire rapidement les blocs de données d'origine en utilisant des fragments partiels. Cela devient possible en maintenant un facteur de réplication de seulement 4 à 5 fois.
Il est donc raisonnable de définir Walrus comme un protocole léger de redondance et de récupération redessiné autour d'un scénario de Décentralisation. Contrairement aux codes de correction d'erreurs traditionnels ) tels que Reed-Solomon (, RedStuff ne poursuit plus une stricte cohérence mathématique, mais effectue des compromis réalistes sur la distribution des données, la vérification du stockage et le coût de calcul. Ce modèle abandonne le mécanisme de décodage instantané requis par l'ordonnancement centralisé, en optant plutôt pour une vérification par Proof sur la chaîne pour déterminer si les nœuds détiennent des copies spécifiques des données, s'adaptant ainsi à une structure de réseau plus dynamique et marginalisée.
Le cœur de la conception de RedStuff est de diviser les données en deux catégories : les tranches principales et les tranches secondaires. Les tranches principales sont utilisées pour restaurer les données d'origine, leur génération et leur distribution étant strictement contrôlées, le seuil de restauration étant de f+1, et nécessitant 2f+1 signatures comme preuve de disponibilité ; les tranches secondaires sont générées par des opérations simples comme la combinaison par XOR, ayant pour but d'offrir une tolérance aux pannes élastique et d'améliorer la robustesse globale du système.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
11 J'aime
Récompense
11
6
Partager
Commentaire
0/400
MayTheAncestorsBless
· Il y a 3h
Déchets, Complice
Voir l'originalRépondre0
Xswl
· Il y a 5h
Si le jeton de poubelle meurt, c'est fini.
Voir l'originalRépondre0
Make$1MillionBy2025
· Il y a 6h
Dire des choses inutiles ne sert à rien, l'ar est l'avenir du stockage décentralisé ! C'est bien mieux que les abonnements mensuels, où l'on paie chaque mois, la télévision est morte à cause de ces abonnements mensuels ! Payer une seule fois et être tranquille à vie, c'est pas avantageux et moins cher ?
Voir l'originalRépondre1
MidnightSnapHunter
· Il y a 7h
fil n'est même pas aussi bon qu'aws
Voir l'originalRépondre0
ZenChainWalker
· Il y a 8h
fil est-il mort ? Pas encore.
Voir l'originalRépondre0
FOMOSapien
· Il y a 8h
Ne pensez-vous pas que ces pros qui jetaient des serveurs pour miner du fil ont dû perdre beaucoup d'argent cette année-là ?
Analyse du récit de la Décentralisation du stockage : comparaison des trajectoires technologiques de Filecoin, Arweave, Walrus et Shelby
Décentralisation du stockage : quel est le chemin à parcourir ?
Le stockage a été l'une des pistes les plus populaires de l'industrie de la blockchain. Filecoin, en tant que projet phare du précédent marché haussier, a atteint une capitalisation boursière de plus de 10 milliards de dollars à un moment donné. Arweave se concentre sur le stockage permanent, atteignant une capitalisation boursière maximale de 3,5 milliards de dollars. Mais avec la disponibilité du stockage de données froides remise en question, les perspectives de développement du stockage décentralisé sont également mises en doute. Récemment, l'apparition de Walrus a apporté une nouvelle attention à une piste de stockage longtemps silencieuse, tandis que le projet Shelby lancé par Aptos et Jump Crypto tente de faire des percées dans le domaine du stockage de données chaudes. Cet article analysera l'évolution narrative du stockage décentralisé à partir des trajectoires de développement des quatre projets : Filecoin, Arweave, Walrus et Shelby, et explorera ses orientations de développement futures.
Filecoin : l'essence des cryptomonnaies sous l'apparence du stockage
Filecoin est l'un des projets de cryptomonnaie émergents, dont le développement s'articule autour de la Décentralisation. Filecoin cherche à combiner le stockage et la Décentralisation, afin de résoudre le problème de confiance envers les fournisseurs de services de stockage de données centralisés. Cependant, certains compromis faits pour réaliser la Décentralisation sont devenus par la suite des points sensibles que d'autres projets tentent de résoudre. Pour comprendre que Filecoin est essentiellement un projet de monnaie minière, il est nécessaire de connaître les limites de sa technologie sous-jacente IPFS en matière de traitement des données chaudes.
IPFS: le goulot d'étranglement de transmission de l'architecture de Décentralisation
IPFS(Système de fichiers interplanétaires) a été lancé vers 2015, visant à bouleverser le protocole HTTP traditionnel par l'adressage de contenu. Cependant, le plus grand problème d'IPFS est sa vitesse d'acquisition très lente. À une époque où les services de données traditionnels peuvent atteindre des temps de réponse de l'ordre de la milliseconde, obtenir un fichier via IPFS prend encore une dizaine de secondes, ce qui rend son adoption difficile dans des applications pratiques. À part quelques projets de blockchain, IPFS est rarement adopté par les industries traditionnelles.
Le protocole P2P sous-jacent d'IPFS est principalement adapté aux "données froides", c'est-à-dire aux contenus statiques qui changent peu. En ce qui concerne les données chaudes, telles que les pages web dynamiques, les jeux en ligne ou les applications d'IA, le protocole P2P n'a pas d'avantage évident par rapport aux CDN traditionnels.
Bien que l'IPFS ne soit pas lui-même une blockchain, son design en graphe acyclique orienté (DAG) s'aligne hautement avec de nombreuses blockchains et protocoles Web3, ce qui le rend intrinsèquement adapté en tant que cadre sous-jacent pour les blockchains. Ainsi, même en l'absence de valeur utilitaire, l'IPFS en tant que cadre sous-jacent pour porter le récit de la blockchain est déjà suffisant. Les premiers projets de clones n'avaient besoin que d'un cadre fonctionnel pour commencer leur grand projet, mais avec le développement de Filecoin, les problèmes apportés par l'IPFS commencent également à entraver son avancée.
Logique des pièces de monnaie sous l'enveloppe de stockage
Le design d'IPFS a pour but de permettre aux utilisateurs de stocker des données tout en devenant une partie du réseau de stockage. Cependant, en l'absence d'incitations économiques, il est difficile pour les utilisateurs d'utiliser volontairement ce système, sans parler de devenir des nœuds de stockage actifs. Cela signifie que la plupart des utilisateurs ne stockeront des fichiers que sur IPFS sans contribuer leur propre espace de stockage ou stocker les fichiers des autres. C'est dans ce contexte que Filecoin est né.
Le modèle économique des tokens de Filecoin comprend trois principaux rôles : les utilisateurs paient des frais pour stocker des données ; les mineurs de stockage reçoivent des récompenses en tokens pour le stockage des données des utilisateurs ; les mineurs de récupération fournissent des données lorsque les utilisateurs en ont besoin et obtiennent des récompenses.
Ce modèle présente un espace potentiel pour des actes malveillants. Les mineurs de stockage peuvent, après avoir fourni de l'espace de stockage, remplir des données inutiles pour obtenir des récompenses. Étant donné que ces données inutiles ne seront pas récupérées, même si elles sont perdues, cela ne déclenchera pas le mécanisme de pénalité pour les mineurs de stockage. Cela permet aux mineurs de stockage de supprimer les données inutiles et de répéter ce processus. Le consensus de preuve de réplication de Filecoin ne peut garantir que les données des utilisateurs n'ont pas été supprimées sans autorisation, mais ne peut pas empêcher les mineurs de remplir des données inutiles.
Le fonctionnement de Filecoin repose en grande partie sur l'investissement continu des mineurs dans l'économie des jetons, plutôt que sur la véritable demande des utilisateurs finaux pour le stockage décentralisé. Bien que le projet soit encore en cours d'itération, à ce stade, la construction de l'écosystème de Filecoin correspond davantage à une position de "logique de minage" qu'à celle d'un projet de stockage "piloté par l'application".
Arweave : réussi grâce au long-termisme, échoué à cause du long-termisme
Si l'objectif de Filecoin est de construire un cadre "cloud de données" décentralisé, incitatif et vérifiable, alors Arweave s'est dirigé vers un autre extrême en matière de stockage : fournir une capacité de stockage permanent pour les données. Arweave ne tente pas de construire une plateforme de calcul distribué, son système entier repose sur une hypothèse centrale - les données importantes devraient être stockées une fois pour toutes et conservées pour toujours sur le réseau. Ce long-termisme extrême fait qu'Arweave diffère de Filecoin en termes de mécanisme, de modèle d'incitation, de besoins matériels et de perspective narrative.
Arweave se concentre sur Bitcoin comme objet d'apprentissage, cherchant à optimiser continuellement son réseau de stockage permanent sur de longues périodes mesurées en années. Arweave ne se soucie pas du marketing, ni des concurrents ou des tendances du marché. Elle avance simplement sur le chemin de l'itération de l'architecture du réseau, même si personne ne s'y intéresse, car c'est l'essence même de l'équipe de développement d'Arweave : le long-termisme. Grâce à ce long-termisme, Arweave a été chaleureusement accueillie lors du dernier marché haussier ; et en raison de ce long-termisme, même après avoir touché le fond, Arweave pourrait encore survivre à plusieurs cycles haussiers et baissiers. Mais la question demeure : y a-t-il une place pour Arweave dans le stockage décentralisé de demain ? La valeur d'existence du stockage permanent ne peut être prouvée que par le temps.
Le réseau principal d'Arweave est passé de la version 1.5 à la version 2.9 récente. Bien qu'il ait perdu l'attention du marché, il s'est toujours efforcé de permettre à un plus large éventail de mineurs de participer au réseau à un coût minimal, et d'inciter les mineurs à stocker des données au maximum, ce qui améliore continuellement la robustesse de l'ensemble du réseau. Arweave est conscient de ne pas correspondre aux préférences du marché, et a adopté une approche conservatrice, n'embrassant pas les groupes de mineurs, avec un écosystème complètement stagné, mettant à jour le réseau principal à coût minimal, tout en réduisant continuellement le seuil matériel sans compromettre la sécurité du réseau.
Rétrospective de la mise à niveau de 1.5-2.9
La version 1.5 d'Arweave a révélé une vulnérabilité permettant aux mineurs de s'appuyer sur l'empilement de GPU plutôt que sur un stockage réel pour optimiser leurs chances de création de blocs. Pour contrer cette tendance, la version 1.7 a introduit l'algorithme RandomX, limitant l'utilisation de la puissance de calcul spécialisée et exigeant que des CPU généraux participent au minage, afin de réduire la Décentralisation de la puissance de calcul.
Dans la version 2.0, Arweave adopte SPoA, transformant la preuve de données en un chemin succinct de structure d'arbre de Merkle, et introduit les transactions au format 2 pour réduire la charge de synchronisation. Cette architecture soulage la pression sur la bande passante du réseau, améliorant considérablement la capacité de coopération des nœuds. Cependant, certains mineurs peuvent toujours contourner la responsabilité de la détention réelle des données grâce à des stratégies de pools de stockage centralisés à haute vitesse.
Pour corriger ce biais, la version 2.4 a introduit le mécanisme SPoRA, qui intègre un index global et un accès aléatoire à hachage lent, obligeant les mineurs à détenir réellement des blocs de données pour participer à la génération de blocs valides, ce qui affaiblit mécaniquement l'effet d'accumulation de puissance de calcul. En conséquence, les mineurs ont commencé à se concentrer sur la vitesse d'accès au stockage, stimulant l'application des SSD et des dispositifs de lecture/écriture haute vitesse. La version 2.6 a introduit une chaîne de hachage pour contrôler le rythme de génération des blocs, équilibrant l'utilité marginale des équipements hautes performances et offrant un espace de participation équitable pour les mineurs de petite et moyenne taille.
Les versions ultérieures renforcent encore la capacité de collaboration réseau et la diversité de stockage : la version 2.7 ajoute le minage collaboratif et le mécanisme de pool de minage, améliorant la compétitivité des petits mineurs ; la version 2.8 lance un mécanisme de packaging composite, permettant aux équipements à faible vitesse et à grande capacité de participer de manière flexible ; et la version 2.9 introduit un nouveau processus de packaging au format replica_2_9, augmentant considérablement l'efficacité et réduisant la dépendance computationnelle, complétant ainsi le modèle de minage orienté données.
Dans l'ensemble, la feuille de route de mise à niveau d'Arweave présente clairement sa stratégie à long terme axée sur le stockage : tout en continuant à résister à la tendance de concentration des pouvoirs de calcul, elle réduit continuellement les barrières à l'entrée, garantissant la possibilité de fonctionnement à long terme du protocole.
Walrus : Embrasser les données chaudes est-il un battage médiatique ou a-t-il un sens plus profond ?
La conception de Walrus est complètement différente de celle de Filecoin et d'Arweave. Le point de départ de Filecoin est de créer un système de stockage décentralisé et vérifiable, au prix du stockage de données froides ; le point de départ d'Arweave est de créer une bibliothèque d'Alexandrie en chaîne capable de stocker des données de manière permanente, au prix d'un nombre d'applications trop limité ; le point de départ de Walrus est d'optimiser le coût de stockage du protocole de stockage de données chaudes.
Modifications magiques du code de correction d'erreurs : innovation des coûts ou vieux vin dans de nouvelles bouteilles ?
En matière de conception des coûts de stockage, Walrus estime que les frais de stockage de Filecoin et d'Arweave ne sont pas raisonnables. Ces deux derniers utilisent une architecture de réplication complète, dont l'avantage principal est que chaque nœud possède une copie complète, offrant ainsi une forte tolérance aux pannes et une indépendance entre les nœuds. Ce type d'architecture garantit qu même si certains nœuds sont hors ligne, le réseau conserve la disponibilité des données. Cependant, cela signifie également que le système nécessite une redondance de plusieurs copies pour maintenir la robustesse, ce qui augmente les coûts de stockage. En particulier dans la conception d'Arweave, le mécanisme de consensus lui-même encourage le stockage redondant sur les nœuds pour renforcer la sécurité des données. En revanche, Filecoin est plus flexible en matière de contrôle des coûts, mais cela implique que certains stockages à faible coût peuvent présenter un risque accru de perte de données. Walrus tente de trouver un équilibre entre les deux, son mécanisme contrôlant les coûts de réplication tout en renforçant la disponibilité par le biais d'une redondance structurée, établissant ainsi un nouveau compromis entre la disponibilité des données et l'efficacité des coûts.
La technologie Redstuff, créée par Walrus, est la clé pour réduire la redondance des nœuds. Elle est dérivée du codage Reed-Solomon ( RS ). Le codage RS est un algorithme de code correcteur très traditionnel; le code correcteur est une technique qui permet de doubler un ensemble de données en ajoutant des fragments redondants, ce qui peut être utilisé pour reconstruire les données d'origine. Des CD-ROM aux communications par satellite en passant par les codes QR, il est fréquemment utilisé dans la vie quotidienne.
Les codes de correction d'erreurs permettent aux utilisateurs d'obtenir un bloc, par exemple de 1 Mo, puis de "l'agrandir" à 2 Mo, où le 1 Mo supplémentaire est constitué de données spéciales appelées codes de correction d'erreurs. Si un quelconque octet du bloc est perdu, l'utilisateur peut facilement récupérer ces octets grâce au code. Même si jusqu'à 1 Mo de bloc est perdu, l'ensemble du bloc peut être récupéré. La même technique permet aux ordinateurs de lire toutes les données d'un CD-ROM, même s'il est endommagé.
Actuellement, le code RS est le plus couramment utilisé. La méthode de mise en œuvre consiste à partir de k blocs d'information, à construire un polynôme associé, puis à l'évaluer à différentes coordonnées x pour obtenir des blocs codés. En utilisant le code de correction d'erreur RS, la probabilité de perdre de gros blocs de données par échantillonnage aléatoire est très faible.
Prenons un exemple : divisez un fichier en 6 blocs de données et 4 blocs de parité, soit un total de 10 parts. Il suffit de conserver 6 de ces parts pour pouvoir restaurer complètement les données d'origine.
Avantages : forte tolérance aux pannes, largement utilisé dans les CD/DVD, les systèmes RAID (, ainsi que les systèmes de stockage en cloud ) tels qu'Azure Storage, Facebook F4(.
Inconvénients : décodage complexe à calculer, coûts élevés ; pas adapté aux scénarios de données à changement fréquent. Par conséquent, il est généralement utilisé pour la récupération et la planification des données dans des environnements centralisés hors chaîne.
Dans une architecture décentralisée, Storj et Sia ont ajusté le codage RS traditionnel pour répondre aux besoins réels des réseaux distribués. Walrus a également proposé sa propre variante - l'algorithme de codage RedStuff, afin de réaliser un mécanisme de stockage redondant à coût réduit et plus flexible.
Quelle est la principale caractéristique de Redstuff ? Grâce à l'amélioration de l'algorithme de codage de correction d'erreurs, Walrus peut rapidement et de manière robuste coder des blocs de données non structurées en plus petits fragments, qui seront stockés de manière distribuée dans un réseau de nœuds de stockage. Même si jusqu'à deux tiers des fragments sont perdus, il est possible de reconstruire rapidement les blocs de données d'origine en utilisant des fragments partiels. Cela devient possible en maintenant un facteur de réplication de seulement 4 à 5 fois.
Il est donc raisonnable de définir Walrus comme un protocole léger de redondance et de récupération redessiné autour d'un scénario de Décentralisation. Contrairement aux codes de correction d'erreurs traditionnels ) tels que Reed-Solomon (, RedStuff ne poursuit plus une stricte cohérence mathématique, mais effectue des compromis réalistes sur la distribution des données, la vérification du stockage et le coût de calcul. Ce modèle abandonne le mécanisme de décodage instantané requis par l'ordonnancement centralisé, en optant plutôt pour une vérification par Proof sur la chaîne pour déterminer si les nœuds détiennent des copies spécifiques des données, s'adaptant ainsi à une structure de réseau plus dynamique et marginalisée.
Le cœur de la conception de RedStuff est de diviser les données en deux catégories : les tranches principales et les tranches secondaires. Les tranches principales sont utilisées pour restaurer les données d'origine, leur génération et leur distribution étant strictement contrôlées, le seuil de restauration étant de f+1, et nécessitant 2f+1 signatures comme preuve de disponibilité ; les tranches secondaires sont générées par des opérations simples comme la combinaison par XOR, ayant pour but d'offrir une tolérance aux pannes élastique et d'améliorer la robustesse globale du système.