Après avoir passé beaucoup de temps dans les centres commerciaux, ce qu'on entend le plus souvent, ce sont les projets qui vantent leurs performances, exhibent leurs coûts ou affichent leurs chiffres de taille. On dirait qu'en poussant ces indicateurs vers le haut, tous les problèmes peuvent être résolus. Mais en réalité, ce ne sont que des façades, la véritable question qui détermine si un système peut survivre à long terme ne se trouve pas là.
Le vrai problème central est en fait d'une simplicité effrayante : dans trois ans, la structure de données que vous utilisez aujourd'hui pourra-t-elle encore supporter la charge ?
Cette question est souvent oubliée de manière sélective par beaucoup. Prenez une application de taille moyenne qui met à jour son état entre quatre et huit fois par jour, chaque mise à jour représentant entre 30 et 60 KB. En calculant, cela donne entre 35 et 70 GB de données historiques accumulées en un an. Le problème, c’est que ces données ne sont pas des données froides rangées dans un coin à prendre la poussière, elles peuvent nécessiter des retours en arrière ou une réutilisation à tout moment. Et la réalité ? Beaucoup de systèmes ne tiennent pas deux ans avant de commencer à lutter avec leurs propres données historiques.
Pourquoi cette peur ? Au fond, c’est à cause de ces pièges : compatibilité cauchemardesque, verrouillage rigide de la structure de données, toute tentative de modification pouvant provoquer un effet domino. La solution adoptée par la majorité des équipes est donc : ajouter une couche de cache, dupliquer les données, appliquer des correctifs. Au final, cela conduit à une prudence accrue des développeurs, à une impossibilité d’innover, et la soi-disant « long-termisme » devient une simple discussion théorique.
Le protocole Walrus adopte une approche différente. Il ne prévoit pas de cacher ou de supprimer l’historique, mais considère plutôt l’historique comme une partie intégrante du système lui-même. Dans cette conception, les objets ne sont pas remplacés ou disparus lors des mises à jour, ils existent en permanence et évoluent avec le système. Ce que vous écrivez n’est pas une donnée ponctuelle, mais plutôt comme l’incubation d’un organisme capable de croître progressivement.
La puissance de cette philosophie de conception réside dans le fait qu’elle ne modifie pas seulement la logique d’exécution technique, mais peut aussi changer fondamentalement l’état d’esprit des développeurs en matière d’innovation.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
5
Reposter
Partager
Commentaire
0/400
BTCRetirementFund
· 01-09 19:53
Réalisme, il ne suffit pas de vanter le TPS et les coûts pour tromper les gens. J'ai vu trop de systèmes s'effondrer en deux ans.
Enfin, quelqu'un ose dire franchement que le piège de la structure de données est vraiment mortel.
La démarche de Walrus a quelque chose de intéressant, ce n'est pas fuir l'histoire mais l'embrasser.
Merde, encore cette vieille tactique de patch avec couche de cache, au final les développeurs ont tous les mains rentrées.
Attendez, considérer l'histoire comme une partie du système, est-ce une véritable révolution ou encore une fois une stratégie marketing ?
C'est exactement ce que je veux voir, un projet qui ne veut pas être piégé par la compatibilité.
Voir l'originalRépondre0
LiquidationSurvivor
· 01-09 04:56
Réveillez-vous, tout le monde, la vieille histoire des chiffres de performance est dépassée
---
Les systèmes qui s'effondrent en deux ans sont légion, qu'est-ce qu'on continue à se vanter ?
---
Ce qui est vraiment impressionnant dans la structure des données, c'est que la plupart des projets n'ont même pas réfléchi à comment durer trois ans
---
C'est là le vrai problème technique, ce n'est pas en empilant simplement des machines que ça se règle
---
L'idée de Walrus est vraiment différente, traiter les données historiques comme quelque chose de vivant
---
Le patch de cache et ses copies, on dirait qu'on applique un patch sur un patch, c'est dégoûtant
---
Les développeurs deviennent de plus en plus prudents, c'est vrai, ils ont peur que tout s'effondre au moindre mouvement, donc l'innovation s'arrête
---
Bonne question, après trois ans, pourra-t-on encore tenir ? C'est ça qui prouve si on bluffe ou pas
Voir l'originalRépondre0
TopBuyerBottomSeller
· 01-09 04:50
Dire les choses de manière percutante. Ceux qui se vantent du TPS ou des coûts sont vraiment des leurres, l'essentiel est de savoir combien de temps ils peuvent durer. Il y a beaucoup de systèmes qui ont commencé à se battre avec les données dès deux ans, et en y repensant, c'était vraiment un cauchemar.
Voir l'originalRépondre0
OnchainHolmes
· 01-09 04:37
C'est bien dit, c'est pourquoi la plupart des projets ne sont que des tigres en papier, ils se vantent de leurs performances mais manquent de substance après coup.
J'ai vu trop de systèmes s'effondrer tous les deux ans, en ajoutant des couches de cache, en dupliquant les données, et au final, on en a juste assez de se fatiguer.
L'idée de Walrus est vraiment innovante, traiter les données historiques comme des êtres vivants, ça sonne beaucoup mieux.
Le véritable long terme doit être abordé de cette manière, pas en appliquant des patchs pour faire durer le plaisir.
Voir l'originalRépondre0
blocksnark
· 01-09 04:30
Oui, oui, oui, je crains que ce genre de façade ne tienne qu'à la surface, et qu'en réalité, on se retrouve coincé quand il faut vraiment s'en servir.
Je l'ai déjà dit, les indicateurs de bluff sont tous vides, la structure des données est le vrai maître.
Deux ans de système doivent se battre avec les données historiques, ça devient vraiment agaçant à entendre.
En réalité, peu de gens pensent comme ça, la plupart se contentent de empiler des caches, de patcher, de réparer.
La démarche de Walrus est vraiment innovante, considérer les données historiques comme des entités vivantes, c'est pas mal.
Après avoir passé beaucoup de temps dans les centres commerciaux, ce qu'on entend le plus souvent, ce sont les projets qui vantent leurs performances, exhibent leurs coûts ou affichent leurs chiffres de taille. On dirait qu'en poussant ces indicateurs vers le haut, tous les problèmes peuvent être résolus. Mais en réalité, ce ne sont que des façades, la véritable question qui détermine si un système peut survivre à long terme ne se trouve pas là.
Le vrai problème central est en fait d'une simplicité effrayante : dans trois ans, la structure de données que vous utilisez aujourd'hui pourra-t-elle encore supporter la charge ?
Cette question est souvent oubliée de manière sélective par beaucoup. Prenez une application de taille moyenne qui met à jour son état entre quatre et huit fois par jour, chaque mise à jour représentant entre 30 et 60 KB. En calculant, cela donne entre 35 et 70 GB de données historiques accumulées en un an. Le problème, c’est que ces données ne sont pas des données froides rangées dans un coin à prendre la poussière, elles peuvent nécessiter des retours en arrière ou une réutilisation à tout moment. Et la réalité ? Beaucoup de systèmes ne tiennent pas deux ans avant de commencer à lutter avec leurs propres données historiques.
Pourquoi cette peur ? Au fond, c’est à cause de ces pièges : compatibilité cauchemardesque, verrouillage rigide de la structure de données, toute tentative de modification pouvant provoquer un effet domino. La solution adoptée par la majorité des équipes est donc : ajouter une couche de cache, dupliquer les données, appliquer des correctifs. Au final, cela conduit à une prudence accrue des développeurs, à une impossibilité d’innover, et la soi-disant « long-termisme » devient une simple discussion théorique.
Le protocole Walrus adopte une approche différente. Il ne prévoit pas de cacher ou de supprimer l’historique, mais considère plutôt l’historique comme une partie intégrante du système lui-même. Dans cette conception, les objets ne sont pas remplacés ou disparus lors des mises à jour, ils existent en permanence et évoluent avec le système. Ce que vous écrivez n’est pas une donnée ponctuelle, mais plutôt comme l’incubation d’un organisme capable de croître progressivement.
La puissance de cette philosophie de conception réside dans le fait qu’elle ne modifie pas seulement la logique d’exécution technique, mais peut aussi changer fondamentalement l’état d’esprit des développeurs en matière d’innovation.