En octobre 2021, Mark Zuckerberg et Facebook font leur entrée (tonitruante) dans le monde du métavers.
Le concept ? Offrir, entre autres, des espaces publicitaires dans un monde virtuel privé. Microsoft propose lui, des espaces de travail, où des avatars se réunissent dans des lieux de réunion virtuels.
Et d’autres solutions innovantes sont en cours d’émergence, qui s’intégreront à cet écosystème.
Pourtant, la question se pose : quelles infrastructures seront en mesure de supporter cette ruée vers le métavers ?
Une tribune de JERLAURE, expert en datacenter
Les géants de la tech que sont Méta (Facebook), Microsoft, et Google, ont décidé d’investir un domaine où des entreprises historiques du jeu comme Sandbox, Roblox ou Epic Game, ont développé depuis plus de vingt ans des environnements virtuels avec les technologies de réalité augmentée et de réalité virtuelle.
S’y ajoutent également les écrans MicroLED, l’eye tracking (ensemble de techniques permettant d’enregistrer les mouvements oculaires) ou encore le hapting, pour la détection des mouvements du corps.
En bref, des technologies indispensables pour une expérience totalement immersive. Indispensables mais aussi très gourmandes…
Quelles contraintes pour le Métavers ?
Faire fonctionner un métavers suppose de passer par une infrastructure offrant une très faible latence (de l’ordre de 30 millisecondes, là où 150 suffisent pour de la visioconférence), une bande passante de plusieurs dizaines de térabits par seconde, qui n’est atteint que très exceptionnellement aujourd’hui, et une capacité de calcul qui va bien au-delà de ce que les datacenters actuels sont capables de produire.
Il apparaît donc de plus en plus évident que l’infrastructure actuelle ne sera pas suffisante.
Méta a d’emblée annoncé des investissements massifs dans des datacenters hyperscale à très haut potentiel.
Mais le nombre de datacenters hyperscale, estimé à 600 aujourd’hui, pourrait ne pas suffire.
D’autant que toutes ces infrastructures devront être utilisées conjointement, par d’autres technologies en plein essor comme l’Intelligence artificielle, le Big Data ou l’IoT.
Il y aura aussi des enjeux énergétiques…
La contrainte technologique croise également les enjeux climatiques et énergétiques.
La consommation d’électricité a déjà été multipliée par 25, entre 2010 et 2018.
L’arrivée du métavers et des autres technologies précitées, comme l’intelligence artificielle, le big data, les technologies blockchain, rend évidente une augmentation encore plus marquée de la consommation d’énergie, liée aux datacenters.
Pour le seul bitcoin, la consommation d’électricité était estimée à 0,5% de la consommation totale en 2021.
Or, le métavers ne pourra pas se passer d’une utilisation massive des crypto-monnaies. Ce qui rend d’autant plus nécessaire le recours à des énergies renouvelables ou à des solutions moins gourmandes en énergie.
Edge Computing, la solution ?
La solution se trouve peut-être dans le recours au Edge Computing, à travers des datacenters de proximité. Clairement, les nouveaux usages numériques (objets connectés, robotique et métavers) nécessitent une latence de plus en plus courte pour traiter les données sensibles au facteur temps.
Et cette latence va être fonction de la proximité des datacenters : prenons l’exemple d’une voiture autonome qui a besoin d’une latence de quelques millisecondes pour prendre une décision de conduite.
Ici, le traitement des données dans des datacenters globaux, distants de plusieurs centaines ou milliers de kilomètres, ne sera absolument pas pertinent.
On peut imaginer un enjeu similaire avec le métavers où la distance du datacenter constituera un frein à la fluidité du métavers.
Autre défi : la saturation des données
Actuellement, des datacenters de proximité sont déployés dans les zones urbaines.
L’objectif ? Décharger le réseau et réduire l’encombrement de la bande passante.
Solution d’autant plus intéressante qu’ils utilisent des énergies renouvelables, qu’ils mutualisent les ressources et qu’ils s’adaptent aux contextes des villes ou des territoires.
L’avenir du cloud se trouve donc peut-être dans un système hybride où même les principaux acteurs de l’hébergement, tels qu’AWS ou Azure, proposeront demain des solutions d’hébergement incluant du Edge computing tout en offrant la même qualité en termes de scalabilité, d’élasticité, en cas de pics de charge, et de durabilité des données.
Des métavers bientôt, mais pas tout de suite !
Mais pour que l’expérience immersive puisse être complète pour des millions d’utilisateurs, il faut que les infrastructures réseau soient à la fois suffisantes et déployées à grande échelle.
La construction d’un réseau 5G, voire 6G ou relié par une fibre “de bout en bout” (FTTH), est une condition nécessaire pour cela.
De même qu’il est nécessaire de mettre en place des machines ayant une puissance de calcul suffisante.
Les nouvelles architectures que développent Intel ou Nvidia, avec la GPU constituent des réponses à ce changement de paradigme qu’est le métavers.
Mais elles ne sont pas encore prêtes et n’arriveront que d’ici quelques années…
Bien des interrogations demeurent donc sur le modèle d’infrastructure à construire, mais les perspectives commerciales offertes peuvent servir d’aiguillon pour faire des choix allant dans le sens d’une infrastructure solide, sécurisée et respectueuse des enjeux climatiques.