
La course à l'extension : OP, ZKRU et la nouvelle DA, qui sera le roi ?
TechFlow SélectionTechFlow Sélection

La course à l'extension : OP, ZKRU et la nouvelle DA, qui sera le roi ?
Dans certains cas, les L1 et L2 peuvent effectuer des échanges d'informations arbitraires, ce que l'OP ne peut pas faire strictement parlant.
Auteur : IOSG Ventures
Préambule
Au cours des trois dernières années, le réseau Ethereum a réalisé des progrès significatifs en matière d'évolutivité, visant à améliorer sa capacité et ses performances pour répondre à la demande croissante de transactions et d'applications. Ces efforts incluent les solutions Layer-2 telles que zkRollups et Optimistic Rollups, ainsi que des protocoles réseau continuellement améliorés. Toutefois, une adoption plus large nécessite une innovation continue et des améliorations du réseau…
À l’occasion du Devconnect, événement annuel de l’écosystème Ethereum, nous constatons que les principaux projets du réseau sont plus actifs que jamais, organisant des conférences techniques de quelques heures à deux jours, afin de partager leurs avancées technologiques, le développement de leurs écosystèmes ou encore mener des discussions sectorielles.
Mais avant le début de OFR Istanbul, nous allons revenir dans cet article sur les discussions menées lors de la rencontre de Friends of Friends à Singapour en septembre dernier. À cette occasion, nous avons eu le privilège d'inviter Celer Network & Brevis, dont le cofondateur Mo Dong ; Matter Labs et zkSync, représentés par leur cofondateur Alex Gluchowski ; Arbitrum, dont le cofondateur et scientifique en chef Ed Felton ; Scroll, cofondé par Ye Zhang ; Polygon Infrastructure, cofondé par Mihailo Bjelic ; et Celestia, dont le PDG et COO Nick White. Ensemble, ils ont participé à un panel approfondi autour du thème « Scaling Tomorrow: Ethereum’s Layer-2 Vanguard ». Découvrons maintenant leurs points de vue stimulants !
Tour de table
Modérateur - Mo Dong (Partenaire chez IOSG Ventures et cofondateur @ Celer)
Bonjour à tous, je suis Mo Dong, cofondateur de Celer. Notre entreprise se concentre sur les protocoles d'interopérabilité blockchain, et certains d’entre vous ont peut-être utilisé notre plateforme. Récemment, nous avons commencé à explorer l’espace ZK, notamment avec un coprocesseur ZK. Aujourd’hui, je représente IOSG Ventures et j’anime ce panel passionnant avec des experts du domaine de l’évolutivité. Je vous invite à vous présenter brièvement ainsi que vos projets respectifs.
Alex Gluchowski (Matter Labs & zkSync)
Je suis Alex, cofondateur de Matter Labs. Notre mission est de rendre Ethereum évolutif grâce à la cryptographie zero-knowledge, sans compromettre la sécurité, et d’étendre sa valeur à un accès complet au blockchain pour n’importe qui dans le monde.
Ed Felton (Arbitrum)
Je suis Ed Felton, cofondateur et scientifique en chef d’Arbitrum. Arbitrum est une solution d’évolutivité de niveau 2 basée sur la technologie Optimistic Rollup.
Ye Zhang (Scroll)
Bonjour à tous, je suis Ye Zhang, cofondateur de Scroll. Scroll est une solution universelle d’évolutivité Ethereum compatible bytecode via zkEVM. Pour les développeurs et utilisateurs, c’est comme Ethereum, mais moins cher, plus rapide et avec un débit supérieur. Grâce au ZK, nous construisons l’avenir du secteur cryptographique, et nous aspirons à devenir la couche de confiance future d’Ethereum.
Nick White (Celestia)
Je suis Nick, directeur des opérations chez Celestia. Nous construisons une blockchain de niveau 1 spécialement conçue pour supporter la scalabilité, permettant à toutes les équipes de développer des systèmes dotés d’un espace bloc riche, assurant disponibilité des données et consensus.
Mihailo Bjelic (Polygon Infrastructure)
Bonjour. Je suis Mihailo, cofondateur de Polygon. Polygon est un écosystème multi-Layer-2 soutenu par la technologie ZK. Nous sommes fiers d’avoir été pionniers dans l’adoption d’Ethereum. Au cours des deux ou trois dernières années, Polygon est devenu la plateforme de choix pour presque tous les grands projets natifs Web3 ainsi que pour de nombreuses entreprises Web2. Parallèlement, nous avons décidé de devenir des leaders technologiques, repoussant activement les frontières de l’innovation. Je pense y être parvenu, notamment grâce à notre dernière technologie, Polygon zkEVM, lancée sur le réseau principal d’Ethereum en mars.
Discussion
Modérateur - Mo Dong (Partenaire chez IOSG Ventures et cofondateur @ Celer)
Première question : quel voyez-vous comme étant le plus grand défi en matière d’évolutivité ? Je crois que nous avons fait beaucoup de progrès ces trois ou quatre dernières années dans le domaine de l’évolutivité Ethereum. En regardant en arrière, quels sont selon vous les accomplissements marquants ? Par rapport à Ethereum L1, quel facteur d’évolutivité avons-nous atteint ces dernières années ? Par exemple, sommes-nous déjà arrivés à la limite théorique de ce que la pile blockchain peut offrir en termes d’évolutivité ?
Alex Gluchowski (Matter Labs & zkSync)
Je pense que nous sommes encore loin de notre objectif. Si vous consultez des tableaux de bord comme L2Beat, vous verrez que tous les Layer-2 combinés offrent environ 5 fois, voire 4 fois, la capacité d’Ethereum. Avec Ethereum lui-même, cela donne environ 50 transactions par seconde en moyenne — un facteur 5. Une partie du problème vient du coût des transactions, qui reste élevé. Bien que les frais de gaz d’Ethereum soient relativement stables, le coût des Rollups varie entre demi-dollar et plusieurs dollars, ce qui reste trop cher pour de nombreux cas d’usage. De plus, si nous devions intégrer un million d’utilisateurs supplémentaires dans un nouveau cas d’usage, le système s’effondrerait. Toutes les cryptomonnaies se disputent l’espace limité des blocs d’Ethereum, donc EIP4844 n’est pas une solution complète pour Ethereum. Bien que EIP4844 puisse apporter quelques améliorations aux Layer-2, il ne doublera pas la capacité totale d’Ethereum. Selon moi, seule une solution d’extensibilité avec disponibilité de données infinie permettra une véritable percée. Celestia va dans ce sens, en proposant une alternative de niveau 1 très intéressante. Mais Ethereum lui-même peut aussi évoluer vers une blockchain modulaire, en s’appuyant sur différents rollups, validiums et volitions avec des solutions externes de disponibilité des données. C’est selon moi la direction à suivre.
Ed Felton (Arbitrum)
Je pense que nous sommes encore loin du but, mais que nous finirons par y arriver. Néanmoins, nous devrions célébrer le fait que la croissance des rollups sur Ethereum ait atteint un facteur 5, réduisant considérablement les coûts par rapport au départ. Si nous examinons les obstacles et les limites fondamentales à l’évolutivité, nous pouvons faire mieux. Bien sûr, le coût de la disponibilité des données en est un. Je pense que c’est un problème artificiel, ou pseudo-problème, car Ethereum n’a pas été initialement conçu pour rendre la disponibilité des données abordable — et c’est justement ce que change Ethereum désormais. D’autres couches de disponibilité des données apparaissent, ce qui devrait ramener le coût de la disponibilité des données au niveau du coût réel du stockage fiable sous-jacent. Une fois cela accompli, je pense que cela ouvrira de nouvelles possibilités, mais les goulots d’étranglement persistent. Nous devons continuer à réduire les coûts, améliorer l’efficacité, et trouver les méthodes les plus simples et économiques pour assembler les composants du système sans compromettre l’évolutivité. Il reste donc beaucoup de travail.
Ye Zhang (Scroll)
Nous construisons une solution zkEVM, ce qui est en soi une réussite. Car il y a deux ou trois ans, personne n’imaginait que l’EVM puisse être vérifié via ZK, et aujourd’hui cela existe bel et bien, et les gens poussent activement les limites techniques, systémiques et de performance du ZK, réduisant réellement les coûts. De plus, nous souhaitons strictement respecter les normes de sécurité d’Ethereum. Nous devons publier nos données sur la chaîne. Ce que nous pouvons faire, c’est tout mettre en œuvre pour atteindre la limite supérieure fixée par Ethereum.
Une fois cette limite atteinte, nous pourrons libérer davantage de ressources pour aider Ethereum à construire ses propres solutions liées aux données. Nous prédisons que si nous atteignons vraiment 10 000 TPS, nous devrons résoudre des problèmes fondamentaux comme la croissance de l’état et d’autres questions plus élémentaires. Après avoir repoussé cette limite, nous voulons concentrer nos efforts sur ces problèmes de base, tels que la recherche et la résolution technique — c’est notre priorité absolue.
Nick White (Celestia)
Je pense qu’il y a deux goulets d’étranglement à l’évolutivité. Le premier est l’exécution (execution), que les Rollups tentent précisément de résoudre. Je crois que nous avons tous fait d’énormes progrès dans ce domaine. Il y a quelques années, les Rollups n’étaient qu’une idée théorique ; aujourd’hui, toutes ces équipes ont concrétisé cette vision. C’est incroyable. L’autre goulet d’étranglement est la disponibilité des données (data availability). Et selon moi, celui-ci n’est pas encore pleinement résolu.
Le lancement de Celestia sera le premier Layer-1 à implémenter l’échantillonnage de disponibilité des données. Cette technologie clé permet d’étendre la disponibilité des données dans l’espace bloc d’un niveau 1. Espérons que cela mettra fin à la contrainte des frais de gaz élevés. Nous pourrons aussi éliminer le problème mentionné par Alex : ajouter un million d’utilisateurs dans une application entraînerait des coûts 10 fois plus élevés, voire davantage.
Donc, même si beaucoup pensent que la demande actuelle pour l’espace bloc n’est pas si forte, je pense que personne ne développe sur un système sachant qu’en cas d’adoption massive, tout s’effondrera. Je suis donc heureux d’essayer de résoudre ce problème, et nous espérons contribuer à lever ce verrou de disponibilité des données.
Mihailo Bjelic (Polygon Infrastructure)
En ce qui concerne notre situation actuelle, deux aspects me semblent importants. Le premier est l’adoption (Adoption). Quel que soit le progrès technologique, il suit toujours un cycle d’adoption. Lorsqu’une nouvelle technologie émerge, de nouveaux cas d’usage et applications apparaissent — comme l’arrivée du haut débit internet, qui a permis de nouveaux usages et accru la base d’utilisateurs. Ensuite, lorsque l’internet mobile s’est combiné au GPS et aux smartphones, de nouveaux cas d’usage ont émergé. Donc, selon moi, en matière d’adoption, nous avons encore un long chemin à parcourir : vous verrez plusieurs itérations successives de l’infrastructure et de la technologie elle-même, suivies par l’adoption et de nouveaux cas d’usage.
Ce qui est encore plus intéressant, c’est la dimension technologique. Je partage globalement l’avis des intervenants ici présents, mais j’aimerais ajouter quelques éléments.
Le premier point est l’exécution. Cela a toujours été un défi majeur. Grâce au zkEVM, nous avons réellement réussi à étendre l’espace bloc d’Ethereum. Nous pouvons augmenter exponentiellement cet espace sans introduire presque aucune hypothèse de confiance supplémentaire, à condition que la cryptographie soit solide. Nous obtenons donc une sécurité cryptographique garantissant que l’espace bloc agrandi d’Ethereum reste valide. À mes yeux, le lancement de Polygon zkEVM est une réussite, et nous pensons que cette partie du problème est essentiellement résolue.
Deuxièmement, la disponibilité des données (Data Availability), comme mentionné par Ed. Je pense que la capacité d’Ethereum en matière de disponibilité des données ne peut pas supporter une adoption massive ou mondiale — ce point peut sembler controversé. Personnellement, je ne crois pas qu’une seule solution de disponibilité des données puisse y parvenir. Malgré tout, nous avons des solutions comme Celestia, d'autres approches de disponibilité des données, et des comités locaux de disponibilité des données. Chaque Layer-2 a ses propres préférences et exigences en matière de sécurité de la disponibilité des données. Donc, selon moi, la question de la disponibilité des données est largement résolue, grâce à ces excellents projets travaillant sur des solutions externes, et parce qu’Ethereum augmente également son débit de disponibilité des données. Je crois que nous sommes sur la bonne voie.
Pour ma part, le troisième élément est l’interopérabilité (Interoperability). Clairement, si Ethereum doit être massivement adopté à l’avenir, nous aurons de nombreuses structures Layer-2 construites par-dessus. Nous voulons que ces Layer-2 puissent interagir de manière fluide. Nous voulons que les Layer-2 forment un réseau interconnecté. Là encore, nous pouvons faire davantage. Notre cadre d’interopérabilité Polygon 2.0 est une tentative excitante qui permet largement une interopérabilité entre Layer-2 grâce au ZK.
Mo Dong (Partenaire chez IOSG Ventures et cofondateur @ Celer)
Des contributions très riches ! Vous avez tous mentionné la disponibilité des données. Bien que les premières solutions Layer-2 d’Ethereum aient été conçues comme des solutions « full-stack », il y a récemment beaucoup de discussions dans la communauté autour des blockchains modulaires. L’équipe de Nick a été pionnière en introduisant la notion de disponibilité des données comme solution générique, applicable à de nombreux rollups différents et à d’autres blockchains potentielles. Mais on discute aussi de sujets intéressants comme les séquenceurs partagés, ou encore les ZK Rollups.
Nick, je voudrais te poser une question : Quand tu as créé Celestia, quelle était ta vision du futur modulaire ? Actuellement, vous fournissez une couche DA à de nombreuses blockchains. En tant que niveau 1, envisagez-vous d’étendre votre rôle à d’autres composants modernes de la blockchain ?
Nick White (Celestia)
Celestia restera spécialisé dans la couche DA. À mon avis, la modularité signifie que nous voulons construire des infrastructures blockchain puissantes pour permettre des applications encore plus solides. Plutôt que d’essayer de tout résoudre dans un seul protocole ou cadre, nous pouvons décomposer ces défis en sous-problèmes. Des équipes peuvent concevoir des protocoles pour résoudre un problème spécifique, permettant une résolution parallèle, puis recombiner différentes solutions. Cela offre davantage de flexibilité et plus de choix aux développeurs finaux. Initialement, nous pensions à trois niveaux, voire un quatrième : disponibilité des données, consensus, exécution et règlement.
Intéressamment, on pourrait imaginer un protocole fournissant des services décentralisés comme un séquenceur partagé, un marché de preuves ou un réseau de preuves décentralisé. À mesure que de nouveaux besoins émergent pour construire des infrastructures blockchain de manière extensible et décentralisée, nous en apprendrons davantage. De nouvelles couches modulaires pourraient apparaître pour répondre à ces besoins. Je pense donc que l’évolution de la pile modulaire dans de nouveaux domaines verticaux n’est pas terminée. J’attends donc avec impatience les prochaines années.
Modérateur - Mo Dong (Partenaire chez IOSG Ventures et cofondateur @ Celer)
Exactement. Récemment, j’ai entendu des critiques sur les blockchains modulaires, car dans certains cas, elles introduisent des compromis subtils, comme les séquenceurs décentralisés. Comment gérez-vous le séquenceur décentralisé en termes d’évolutivité, de sécurité et de valeur ajoutée ? J’ai vu beaucoup de gens partager récemment leurs vues sur l’infrastructure de preuve et les ZK Rollups. Quelqu’un souhaite-t-il donner son avis ?
Ye Zhang (Scroll)
Je suis entièrement d’accord avec l’idée que « pour atteindre une capacité similaire à celle d’internet, d’autres solutions DA seront inévitablement nécessaires ». Mais je dirais que la modularité est un modèle très idéalisé, et qu’elle pose de nombreux défis pratiques. Par exemple, les fournisseurs RPC, les oracles — tout cela doit être intégré à la chaîne et fonctionner de manière stable. Il faut aussi prendre en compte les tiers, et comment s’intégrer quand on utilise une DA externe. Quand on ne gère pas soi-même la chaîne, on pense : « ceci est l’exécution, ceci est la preuve, ceci est la validation ». En réalité, beaucoup d’autres choses sont nécessaires, comme des systèmes de surveillance, pour garantir réellement la sécurité des Rollups. Nous opérons une chaîne, donc nous savons à quel point il est difficile d’intégrer tous ces services. C’est donc un problème potentiel. Il faudra du temps pour tester toutes ces solutions DA, voir comment elles s’intègrent aux autres écosystèmes, et quel impact elles ont.
Par ailleurs, je crains que certains standards immatures soient poussés trop agressivement sur le marché. Car à nos yeux, si vous n’avez pas de preuve ZK et que vous lancez quelque chose prématurément, certains choix de conception rendront plus difficile l’intégration ultérieure de nouveaux systèmes de preuve ou composants. Ainsi, posséder un système truly modulaire devient irréaliste. Mais si vous voulez vraiment aligner Arbitrum, Scroll ou d’autres protocoles sur ce standard, vous devrez faire des changements majeurs. Peut-être parce que la conception initiale exigeait une preuve, ce qui est très compliqué — vous devez alors mettre à jour toute la pile. Surtout quand vous avez un grand réseau, imaginez la difficulté de la mise à niveau d’Ethereum, qui nécessite une compatibilité ascendante.
C’est pourquoi je vois là un point dangereux dans la direction des blockchains modulaires. Globalement, je pense que si la communauté parvient à un consensus sur un standard, et qu’un domaine souhaite l’adopter, alors peut-être sera-ce le moment. Mais auparavant, chacun doit d’abord construire un système complet, l’exécuter dans le monde réel, le valider, puis discuter des étapes suivantes, comme les séquenceurs partagés ou validateurs partagés. Je pense que cela peut résoudre certains problèmes, mais beaucoup d’autres restent non résolus.
C’est pourquoi nous en sommes encore à la phase de recherche, car les gens discutent d’utiliser des séquenceurs partagés pour le tri, peut-être dix méthodes différentes, avec une certaine interopérabilité entre chaînes de tri différentes. Mais le problème est le suivant : supposez que 100 opportunités soient triées par un même nœud, et que ce nœud doive disposer d’un groupe de nœuds pour trier ces 100 opportunités — cela nécessiterait une centralisation extrême. Car les exigences de fonctionnement du séquenceur sont très élevées, ce qui risque d’augmenter la centralisation de votre système, et cela limite aussi l’espace de conception, car vous devez transférer ce pouvoir au groupe de séquenceurs partagés. Et même avec un séquenceur partagé, cela ne garantit pas la composable atomicité entre chaînes différentes.
Il reste donc beaucoup de questions sans réponse, et différentes voies ont des économies différentes. J’estime que disposer d’un ensemble de validateurs rend la conception plus difficile. Je crois que cela a de la valeur pour les rollups de longue traîne ou petits, qui n’ont pas suffisamment de capacité pour décentraliser leur séquenceur, et qui souhaitent rejoindre un séquenceur de confiance. Mais je pense qu’il est encore trop tôt pour construire un système complet. Du moins, attendons qu’il y ait assez de matériel pour que les Layer-2 respectent certains standards.
Car je ne veux pas qu’à l’avenir, il y ait dix mille combinaisons différentes de Layer-2 : utiliser telle couche d’exécution, telle DA, avec multisignature, mise à jour instantanée, etc. L’adoption croissante des Layer-2 est une bonne chose, mais aussi une mauvaise, car tout le monde se revendique Layer-2 sans respecter les standards requis pour être un outil légitime. Voilà mes principales inquiétudes, même si je suis optimiste — je pense simplement qu’il faut investir davantage d’efforts dans ce domaine.
Modérateur - Mo Dong (Partenaire chez IOSG Ventures et cofondateur @ Celer)
Tu es donc globalement prudent mais optimiste, et tu souhaites d’abord voir un système complet fonctionnel de bout en bout. Avant d’envisager la modernisation, Ed, veux-tu ajouter quelque chose ?
Ed Felton (Arbitrum)
Permettez-moi de partager une expérience pratique : il y a plus d’un an, nous avons modifié Arbitrum pour supporter plusieurs services de disponibilité des données. Depuis, nous avons lancé deux chaînes principales — Arbitrum One et Arbitrum Nova — avec des mécanismes DA différents. Nous avons donc accumulé de l’expérience opérationnelle. Une leçon est que la disponibilité des données peut être interchangeable, et nous avons une bonne idée de comment y parvenir. Mais je pense aussi que les détails sont plus subtils qu’on ne le croit : il faut pouvoir intégrer la preuve de disponibilité des données (peut-être provenant d’une autre chaîne, comme une chaîne DA) dans le mécanisme principal de preuve, et s’assurer qu’il n’y ait aucun vide entre les mécanismes de preuve requis.
Cela signifie que d’autres chaînes de disponibilité des données doivent satisfaire certaines invariants, posséder certaines propriétés nécessaires à la génération de preuves end-to-end. Ces détails peuvent être très subtils. Je pense qu’on peut y parvenir dans le cas de la disponibilité des données, mais je ne crois pas que chaque composant soit interchangeable lorsqu’on conçoit un Layer-2 sécurisé. La disponibilité des données peut l’être, le séquencement aussi, mais c’est encore plus difficile que pour DA. Dans ce domaine, nous devrions être prudents. Concentrons-nous sur des zones comme la disponibilité des données, où la valeur semble maximale et les compromis de sécurité les plus clairs.
Alex Gluchowski (Matter Labs & zkSync)
Je voudrais ajouter un point différent. D’un côté, nous devons être prudents, car certaines décisions sont irréversibles et difficiles à maintenir. D’un autre côté, nous devons oser expérimenter, repousser les limites, plutôt que de rester figés. Suivons l’exemple d’Ethereum, et voyons quel est notre rôle en tant que Layer-2 et innovateurs. Nous voulons faire des choses différentes, et nous les faisons. Arbitrum a pris de l’avance sur l’EVM et les plugins linguistiques, tandis que nous explorons d’autres solutions de disponibilité des données, et nous sommes à un stade critique. Nous travaillons sur la décentralisation du séquenceur, un élément central de notre projet. Notre mission fondamentale est la décentralisation pour élargir l’échelle de la blockchain.
Je diverge sur la définition du Layer-2 : il doit hériter des caractéristiques les plus cruciales du niveau 1, notamment sa sécurité et sa décentralisation. Mais vous devez garantir les éléments essentiels, comme la pérennité de toutes les transactions — non seulement celles que l’utilisateur final veut inclure, mais chaque transaction doit être conservée. Vous devez assurer qu’Ethereum impose la validité des transactions. Même si vous affirmez avoir les mêmes attributs de sécurité qu’Ethereum, la disponibilité des données doit être imposée par Ethereum ou par le niveau 1 que vous utilisez, etc. De ce point de vue, nous explorons la décentralisation du consensus et d’autres solutions d’évolutivité, comme les validiums, les volitions, l’utilisation de Rust comme couche d’exécution interchangeable, des modules d’exécution, etc.
Nick White (Celestia)
Je veux juste ajouter rapidement que j’apprécie ce qu’a dit Alex sur le courage, car Celestia croit — et souhaite promouvoir dans l’écosystème modulaire — l’expérimentation. Plus on expérimente, plus vite viennent l’innovation et l’apprentissage. Je pense donc que c’est pareil pour les standards. Créer un standard comporte des risques : on peut découvrir qu’il est adopté, puis qu’il échoue, et qu’il faut l’améliorer. Mais si vous regardez les standards d’Ethereum, ils sont apparus organiquement, comme ERC20 ou ERC721 — la communauté a trouvé ce qui fonctionnait. Je pense que nous avons un travail similaire à faire en tant que communauté modulaire. Même si cela prend du temps, je suis optimiste quant à son impact à long terme.
Ed Felton (Arbitrum)
Je reconnais que l’audace est cruciale dans les bons contextes, mais nous, gestionnaires de chaînes, savons bien que lorsque nous utilisons l’argent des investisseurs, l’audace a ses limites.
Modérateur - Mo Dong (Partenaire chez IOSG Ventures et cofondateur @ Celer)
Lors de ce débat, chacun a apporté une contribution majeure, certains ayant lancé des projets très réussis, d’autres étant de jeunes talents en plein essor. Ce débat mérite d’être célébré. Pour le public, c’est aussi une excellente occasion d’apprendre des expériences passées. Passons maintenant à quelques questions individuelles. Commençons par toi, Ed.
Arbitrum est actuellement le Rollup le plus fort et le plus prometteur en termes de TVL et d’adoption, repoussant les limites techniques de l’évolutivité d’Ethereum. Dès le début, vous avez lancé des preuves de fraude complètes, ce qui a été crucial pour le développement de votre activité.
Je voudrais donc savoir si votre équipe a discuté, au tout début, de lancer tôt sans preuve de fraude, ou avec une preuve partielle ? Pourquoi avez-vous choisi la voie actuelle ? Selon votre expérience, cette exigence technique élevée a-t-elle aidé au développement de votre écosystème actuel ?
Ed Felton (Arbitrum)
Nous n’avons jamais envisagé de lancer sans preuve de fraude. Dès le départ, nous avons compris une vérité implicite : si vous voulez finalement être sécurisé, il est plus simple de construire la sécurité dès le début. Plus longtemps vous restez sans sécurité, plus il est difficile de la rétablir ensuite. Les preuves de fraude, notamment interactives, ont été notre première idée. Elles ont lancé tout le projet, et sont la base de notre innovation.
Comme vous pouvez le voir : il y a trois ans, nous avions des preuves de fraude fonctionnelles sur Testnet ; il y a deux ans, sur Mainnet. Tout ce que nous avons fait repose sur ces preuves. Des produits comme Stylus, qui permettent une interopérabilité et une composable totale, permettant d’écrire des programmes dans des langages populaires et de les exécuter avec l’EVM.
Sans un système antifraude éprouvé comme fondation, nous n’aurions jamais pu construire un tel système. Car plus longtemps un système manque de ces fonctionnalités, plus il est difficile de les réintégrer. D’autres parties du système doivent aussi posséder ces propriétés subtiles pour être prouvables comme frauduleuses.
Nous devons donc anticiper ces caractéristiques tôt et nous assurer de ne pas violer ces invariants. Je pense que c’est la clé de notre succès dans la construction de preuves de fraude. Quand vous découvrez que d’autres parties du système doivent avoir certaines propriétés pour être prouvables comme frauduleuses, nous y avons pensé très tôt. Nous avons même une liste interne des propriétés que nous ne devons pas violer si nous voulons que le système soit prouvable comme frauduleux. Certaines de ces propriétés sont très subtiles.
Modérateur - Mo Dong (Partenaire chez IOSG Ventures et cofondateur @ Celer)
Oui. Alors Mihailo, Polygon a connu un succès immense. Peux-tu nous raconter la phase de croissance explosive de Polygon ? On dit souvent que la stratégie d’alignement avec Ethereum (Ethereum alignment) a bien aidé Polygon, mais récemment certains remettent en question si Polygon s’éloigne de la communauté Ethereum, etc. Pourrais-tu donc nous raconter cette période de croissance fulgurante, et partager quelques anecdotes sur cette stratégie ?
Mihailo Bjelic (Polygon Infrastructure)
Les gens réalisent désormais, à travers nos actions concrètes, que nous prouvons que nous sommes alignés sur Ethereum. Nous avons massivement investi dans le ZK et la construction du zkEVM, qui est probablement la technologie la plus avancée et la plus évolutive de l’écosystème Ethereum actuel. Donc, je pense que nous prouvons plus que jamais notre alignement avec Ethereum. Récemment, nous avons proposé de mettre à niveau notre chaîne PoS — une sidechain semblable à une architecture secondaire — en la transformant en Validium piloté par zkEVM. Je pense que c’est un signal fort supplémentaire, prouvant notre alignement. Personnellement, les gens sont plus convaincus que jamais que nous sommes véritablement alignés sur Ethereum.
L’alignement avec Ethereum a bien fonctionné pour nous. Cette inspiration vient essentiellement de deux choses. D’abord, un aspect émotionnel, ou irrationnel : je participe activement à Ethereum depuis 2017. C’est grâce à Ethereum que je suis entré dans ce secteur. La vision proposée par Ethereum, le potentiel de créer tous ces cas d’usage intéressants, et surtout la possibilité de construire un réseau global de valeur, m’ont profondément impressionné.
Comme je l’ai dit, tout comme nous avons créé internet, qui a profondément changé le monde, Ethereum propose de créer un réseau global de valeur. Pour moi, c’est précisément la pièce manquante d’internet. Et ce réseau de valeur globale peut changer le monde, peut-être encore plus profondément qu’internet. Cette idée est impressionnante, et l’authenticité de la communauté Ethereum à ce sujet m’a toujours motivé, personnellement et pour notre équipe. Donc, il y a cet aspect émotionnel, puis un aspect pratique.
Si vous raisonnez uniquement de façon pragmatique, tirer parti de tout ce qu’a accompli la communauté Ethereum — comme l’EVM, qui est devenu le standard en matière de langage de programmation, d’outils, d’utilisateurs, de capital, etc. — est extrêmement logique. Donc, c’est une décision rationnelle. La communauté Ethereum nous a bien accueillis, et au début, vous deviez nous faire confiance, car nous avions une architecture de type sidechain. On pouvait dire qu’Ethereum avait trop de valeur, etc. Certains ont douté, mais comme je l’ai dit, je pense que nous avons prouvé, ou du moins démontré jusqu’à présent, notre engagement.
Pour parler du passé, ce n’était pas toujours facile. Aujourd’hui, l’écosystème Ethereum a de la chance, car les Layer-2 sont à la mode. Les sociétés de capital-risque veulent investir dans les projets Layer-2, tout le monde est enthousiaste.
Mais ce n’était pas le cas en 2020 : les Layer-1 et les soi-disant « tueurs d’Ethereum » étaient à la mode, non ? C’est là que se dirigeait le capital. Ces projets avaient une prime sur le marché, en lien avec Ethereum et sa capitalisation. Beaucoup d’investisseurs nous ont demandé, à plusieurs reprises : pourquoi ne pas tracer votre propre voie ? Pourquoi rester aligné sur Ethereum ? En fait, nous avons souvent entendu ce genre de remarques : par exemple, vous sacrifiez votre projet, votre valorisation, etc.
Donc, il y a eu ces remarques et ces doutes, y compris au sein de la communauté Ethereum. D’un côté, on nous demandait : pourquoi n’êtes-vous pas un Layer-1 ? Pourquoi ne pas vous détacher d’Ethereum ? De l’autre côté, certains membres de la communauté Ethereum doutaient de notre sincérité, de notre engagement réel envers Ethereum. Malgré ces moments difficiles, nous avons persévéré. Et cela a été excellent pour nous.
Modérateur - Mo Dong (Partenaire chez IOSG Ventures et cofondateur @ Celer)
Effectivement, je pense que ton apport à la communauté et à l’écosystème Ethereum est indéniable.
Alex, zkSync est l’un des premiers projets à avoir lancé des ZK Rollups sur mainnet. Tout en maintenant une compatibilité maximale avec l’expérience développeur d’Ethereum, vous avez ajouté des fonctionnalités passionnantes, comme l’abstraction de compte native (Native Account Abstractions), etc. Où en êtes-vous sur ce plan ? Quel est l’objectif d’ajouter ces fonctionnalités supplémentaires à la pile Ethereum existante ? Peux-tu nous en parler ?
Alex Gluchowski (Matter Labs & zkSync)
Toutes nos décisions de conception chez zkSync sont guidées par l’état final souhaité. Nous avons une vision claire, que nous avons exprimée dans notre manifeste Zika Credo. À long terme, nous voulons atteindre cette vision, et nous procédons par ingénierie inverse pour déterminer quelles décisions architecturales ou choix technologiques sont nécessaires.
L’une des visions finales est d’offrir une expérience utilisateur plus fluide que Web2. Cela signifie que l’abstraction de compte native est l’un des véritables leviers d’adoption massive. Car on ne peut pas attendre que la majorité des utilisateurs comprennent les phrases de récupération, le gaz, ou possèdent des tokens spéciaux pour payer le gaz, etc. C’est là que nous devons innover. Nous avons collaboré avec la Fondation Ethereum pour élaborer le standard EIP4337. Mais Ethereum doit rester conservateur : il ne peut pas modifier son protocole central pour offrir une expérience utilisateur plus fluide.
Nous avons donc décidé, dès le départ, d’être la seule chaîne à posséder certaines technologies uniques, ce qui nous a causé quelques difficultés — par exemple, il est difficile de supporter certaines applications multichaînes. Mais d’autres applications prospèrent précisément parce qu’elles ne peuvent fonctionner que sur zkSync. Nous avons de nombreuses applications de jeux très intéressantes, et beaucoup de projets exploitent spécifiquement l’abstraction de compte native. C’est une grande opportunité d’apprentissage, qui nous aide à réfléchir aux nouvelles fonctionnalités futures — certaines que j’ai déjà mentionnées ici, d’autres encore en phase de conception. Oui, tout cela vise à réaliser la vision finale d’Ethereum : une évolutivité extrême, un nombre illimité de chaînes, de transactions et de disponibilité de données, une utilisation ultra-simple, comme avoir une banque suisse dans votre poche, tout en protégeant la vie privée et en permettant des calculs dans différents langages.
Modérateur - Mo Dong (Partenaire chez IOSG Ventures et cofondateur @ Celer)
Alors, Ye Zhang, avant de lancer Scroll, plusieurs ZK Rollups existaient déjà. Pourquoi as-tu décidé de tenter l’aventure ? Qu’est-ce que tu pensais manquer dans ce domaine, et à quoi voulais-tu contribuer ?
Ye Zhang (Scroll)
Oui, je pense que cela remonte à deux ou trois ans. Je pense que notre point commun le plus fort avec Arbitrum est que, pendant les cinq dernières années, j’étais à l’université à faire de la recherche — sur les preuves à connaissance nulle, même avant la blockchain. Je préfère même le ZK à la blockchain, car j’aime les polynômes, tous ces algorithmes cryptographiques, car c’est fascinant. Par exemple, comment compresser un circuit complexe en un très petit polynôme, puis l’évaluer, en utilisant des preuves probabilistes.
À l’époque, le principal obstacle à l’utilisation pratique du ZK était le temps de preuve excessif. Je cherchais comment accélérer ce processus par le matériel, tout en faisant aussi des recherches théoriques pour l’accélérer. Nous avons finalement trouvé des solutions. Sur cette base, nous avons publié des articles académiques montrant comment utiliser du matériel personnalisé et des GPU pour accélérer le Prover de 100 fois, et d’autres améliorations pour les crypto-monnaies. Tous les nouveaux systèmes de preuve et les preuves de propriété ont gagné un facteur 1000, comme à ce moment-là il y a deux ans. Nous avons alors compris que chaque fois que l’efficacité technologique progresse de trois ordres de grandeur, de nouvelles applications deviennent possibles.
C’est pourquoi, depuis environ deux ans, on parle de plus en plus de ZK : car la technologie a fait d’énormes progrès. Nous avons réalisé que nous pouvions créer quelque chose de vraiment ambitieux, même si nous commencions plus tard, car la technologie n’était pas encore prête. C’est pourquoi je pense que différentes personnes, même certains pionniers, ont fait des compromis différents dans leurs conceptions. Nous voulions être ZK-friendly pour gagner en performance. Mais en réalité, même en créant un produit totalement compatible, compatible bytecode, on peut atteindre des performances suffisamment bonnes — par exemple, un temps de génération de preuve de quelques minutes. Je pense que nous avons eu la chance d’arriver à ce moment précis d’amélioration technologique, que nous avons vu venir, et sur lequel nous travaillons depuis des années. C’est donc pour cela que nous avons commencé à construire.
De plus, nous nous sommes fermement engagés sur les valeurs et la philosophie d’Ethereum, ce qui nous a permis de progresser rapidement, car nous avons respecté cette ouverture, ce caractère communautaire. Il est difficile de dire quel zkEVM est le plus performant, car chacun développe sa propre pile technologique. Mais nous sommes confiants dans notre approche la plus ouverte, car nous sommes le seul ZK VM entièrement open source depuis zéro. Vous pouvez voir toutes les propositions dès les premières soumissions GitHub, suivre notre développement conjoint avec l’équipe ZK de la Fondation Oriental et d’autres membres de la communauté. C’est aussi l’un des plus pilotés par la communauté. Car quand on parle de communauté, il ne s’agit pas seulement des développeurs d’applications, mais aussi de la base de code — combien de contributeurs externes participent à notre base de code.
Bienvenue dans la communauté officielle TechFlow Groupe Telegram :https://t.me/TechFlowDaily Compte Twitter officiel :https://x.com/TechFlowPost Compte Twitter anglais :https://x.com/BlockFlow_News














