Le Cloud : Surfer sur l’exponentielle…
Bernard Ourghanlian a rejoint Microsoft France en 1999 au poste de Directeur Technique. A ce titre, il a la responsabilité de la conduite globale de la stratégie de Microsoft en France, en matière de technologie et de sécurité. Il est également administrateur du Syntec Numérique et de l’Université de Paris Sud.
La crise du coronavirus a mis en évidence les innombrables biais cognitifs dont nous sommes hélas tous affublés ; ces tristes oripeaux qui font de nous des êtres humains dans toute leur fragilité. Ce sont ces biais cognitifs qui ont été à l’origine de toutes nos erreurs à travers l’extrême difficulté que nous avons eue pour prendre conscience de l’importance de cette crise, de l’irrationalité de nos décisions pendant la crise elle-même et de la façon dont nous apprendrons (ou pas) de cette crise. Bien entendu, je ne voudrais en aucun cas sous-entendre que j’ai personnellement réussi à échapper à ces biais : j’en ai été la victime comme les autres…
Parmi ceux-ci, le biais de croissance exponentielle. Dans une croissance purement exponentielle, le nombre de nouveaux cas de contamination est proportionnel au nombre de personnes contaminées. Exprimé sous cette forme, on n’imagine pas toujours ce que cela signifie…
Pourtant, si le nombre de nouvelles infections dans une épidémie double tous les trois jours, cela signifie que la moitié des personnes infectées depuis le début de l’épidémie l’ont été depuis moins de trois jours… On voit bien ici que la fonction exponentielle a des aspects terrifiants. Le premier scientifique qui a mis en évidence ce type de croissance est Leonhard Euler, en 1760, dans un article important intitulé « Recherches générales sur la mortalité et la multiplication du genre humain ». En 1798, Thomas Malthus (le père du malthusianisme) comprend que la croissance exponentielle est une menace pour l’humanité. Heureusement, en 1840, Pierre-François Verhulst découvre la « croissance logistique », qui permet de comprendre pourquoi les exponentielles doivent finir par se calmer…
En fait, notre esprit a bien du mal à appréhender un tel phénomène car celui-ci est très difficile à anticiper : au début de cette courbe, les observateurs pensent toujours qu’elle est plate (ou presque). En fait, ce n’est pas le cas. Si l’on prend le début d’une courbe exponentielle en puissance de 2, le fait de passer de 1, puis à 2, puis à 4, puis à 8 semble bien peu de chose quand on se retrouve au bout de 10 itérations à 2**10, c’est-à-dire 1024. Ce phénomène a été étudié par des chercheurs allemands, dans le cas du coronavirus, dans leur publication « Correcting misperceptions of exponential coronavirus growth increases support for social distancing » au sein de laquelle ils recommandent d’augmenter le niveau de « culture statistique du grand public pour accroître le soutien à la lutte contre le coronavirus en utilisant la méthode la plus efficace actuellement disponible. » Il est cependant à craindre qu’une telle recommandation soit bien insuffisante tant nos processus mentaux peinent à extrapoler n’importe quel phénomène exponentiel.
Le Cloud, son évolution exponentielle et ses conséquences sur l’innovation
Je n’évoque ici le coronavirus qu’à des fins d’illustration de ce biais cognitif bien connu ; en fait, je voudrais évoquer la question du Cloud, de son évolution exponentielle et de l’impact qu’a eu ce biais cognitif sur le processus d’innovation de Microsoft. Pour fixer les idées, le Cloud Azure a été lancé officiellement par Microsoft le 1er février 2010. A cette époque, Microsoft avait fait le choix délibéré de se focaliser sur le PaaS (Platform as a Service). La toute première version de Windows Azure (à cette époque Microsoft Azure s’appelait encore Windows Azure) ne disposait que d’un nombre limité de services qui formaient les quatre piliers initiaux de la plate-forme : le premier pilier était le service de calcul qui disposait de composants de type Web et Worker roles ; les développeurs pouvaient packager et exécuter des applications Web ASP.NET avec des API qui s’exécutaient dans le contexte d’un rôle Web tandis que le Worker Role était conçu pour des processus de longue durée de type batch. Le stockage de type « Blob Storage Azure », comparable à Amazon S3, était le deuxième pilier de Windows Azure qui offrait aux services persistance et durabilité. Le troisième pilier était un service de base de données SQL Azure qui ressemblait beaucoup à Microsoft SQL Server. Le quatrième pilier était Azure Service Bus, un bus de messages hérité de BizTalk Server.
Pendant ce temps, Amazon EC2 était devenu généralement disponible en 2008 avec les machines virtuelles de Microsoft Windows Server disponibles en version bêta. Les clients pouvaient alors exécuter un bureau à distance au sein d’une instance EC2 et y installer le logiciel de leur choix. La disponibilité d’Amazon Elastic Block Store conduisait alors à l’adoption rapide d’EC2 pour exécuter les logiciels Windows traditionnels dans le Cloud. De plus, l’autre tendance qui commençait à prendre de l’ampleur était l’utilisation de logiciels Open Source. Étant donné que les environnements Open Source tels que Apache, PHP et MySQL étaient stables, de nombreux développeurs étaient alors passés à l’Open Source. Ubuntu de Canonical, Red Hat Enterprise Linux, SUSE et le propre Linux d’Amazon constituaient les distributions les plus populaires dans le Cloud. Cette montée en puissance de l’Open Source et la croissance fulgurante d’Amazon EC2 ont alors amené Microsoft à repenser son approche du Cloud. En effet, les clients souhaitaient un meilleur contrôle du Cloud à travers une approche de type IaaS (Infrastructure as a Service). Dans le même temps, les développeurs exigeaient une plate-forme Cloud plus ouverte avec la prise en charge des principaux logiciels Open Source, et en particulier de Linux. D’où une évolution majeure d’Azure afin d’embrasser également la dimension IaaS. Ainsi, en 2014, Microsoft surprenait le monde en s’associant étroitement à Red Hat, Oracle, SUSE et Canonical avec la volonté de faire d’Azure la meilleure plateforme pour exécuter un système d’exploitation Linux. Aujourd’hui, Linux représente environ 50% des Machines Virtuelles dans Azure ; c’est dire si les choses ont évolué…
Dans ce cadre, dès 2013, un effort important de planification avait donc été lancé au sein de l’engineering Azure afin d’imaginer le nombre de cœurs qui devraient être mis en œuvre dans 4 ans, soit en 2017. Et déjà à cette époque, le biais de compréhension d’une croissance exponentielle commençait de jouer son rôle pernicieux car nous sommes passés complètement à côté de la croissance réelle du nombre de ces cœurs : en fait, la croissance réelle d’Azure a dépassé les prévisions initiale de 2013 par un facteur 3 en 4 ans…
Pour éviter qu’un tel problème se pose à nouveau, nous nous sommes mis à « penser l’exponentiel » de manière systémique. Bien entendu, une telle réflexion nécessitait la remise en cause de tous les éléments techniques fondamentaux concernés : l’architecture même d’Azure, sa sécurisation, les processus d’ingénierie, la généralisation de l’automatisation, la surveillance et la gestion de la disponibilité, la réponse aux incidents, les Datacenters et leur architecture, la consommation électrique induite et son impact environnemental, les réseaux intra-Datacenter et inter-Datacenter, etc.
Parmi ces éléments, l’infrastructure de base. A savoir, le stockage, le réseau, le calcul, la mémoire et les accélérateurs spécialisés. En effet, la plupart des technologies de base utilisées dans les Datacenters du Cloud aujourd’hui ont été conçues bien avant l’existence du Cloud. Et beaucoup de ces technologies représentent des compromis, encombrées qu’elles sont d’un certain nombre de choix de conception historiques pertinents à l’époque où elles avaient été conçues, pour des applications aujourd’hui désuètes, et présentant des fonctionnalités faisant appel aux particularités de scénarios divers et variés. Or, à l’échelle du Cloud et dans une optique résolument exponentielle, il devient possible de créer des technologies spécifiques au Cloud qui nous libèrent d’une histoire qui nous a certes appris beaucoup de choses mais qui a besoin de se dégager de la gangue du passé. En effet, les perspectives d’évolution technologique de presque toutes les ressources impliquées aujourd’hui au sein du Cloud, commencent à s’essouffler et il devient nécessaire d’innover pour faire face à cette évolution. Cela signifie que des innovations disruptives et non seulement incrémentielles sont nécessaires afin de trouver des technologies alternatives pour l’infrastructure du Cloud dans une logique de passage à l’hyper-échelle. La fin de la loi de Moore pour le calcul, des phénomènes similaires pour le stockage et la mise en réseau (également en raison des limitations pour faire passer à l’échelle les technologies CMOS) couplés au fait que le volume de données croît à un rythme exponentiel encore plus rapide que les besoins de calcul sont autant de défis majeurs qui sont adressés aux technologies Cloud dans leur état actuel.
Pour accomplir une telle remise en cause, nous avons réuni une équipe hautement interdisciplinaire afin de nous poser une question toute simple : comment l’utilisation de l’optique au sein du Cloud peut-elle transformer ce dernier ? Pour cela, nous avons pris la décision d’inventer des systèmes optiques de bout en bout, pour les principales ressources de base du Cloud : le stockage, le réseau et le calcul, qui sous-tendront, nous le pensons, la prochaine génération du Cloud.
C’est donc avec la volonté d’éviter de se laisser prendre au piège du biais de compréhension d’une croissance exponentielle que nous avons lancé le programme Optics for the Cloud. De ce programme sont nés plusieurs projets sur lesquels je vais maintenant donner quelques éléments d’information.
Généralisation de l’utilisation de l’optique dans et entre les Datacenters
Projet Sirius
Depuis quelques années, plusieurs technologies ont émergé pour la réalisation de circuits en optique intégrée avec comme objectif commun l’augmentation de la densité d’intégration de fonctions optiques sur une même puce, de façon analogue à l’évolution de la microélectronique intégrée. Nos travaux de recherche se sont portés sur la technologie dite «photonique sur silicium» qui présente l’atout majeur d’utiliser les moyens de fabrication de la microélectronique sur substrats (wafers) de silicium. Ainsi, cette technologie bénéficie de la très haute précision des équipements de fabrication nécessaire à la performance et à la densification des circuits optiques.
En fait, le trafic sur le réseau Cloud devrait plus que doubler tous les deux ans dans les années à venir et présenter des exigences de latence de plus en plus sévères. Or, cette tendance est en contradiction avec la possibilité pour les commutateurs de réseau électroniques de continuer de bénéficier de la loi de Moore qui touche hélas à sa fin…
Le projet Sirius vise donc à étudier si la commutation optique ultra-rapide au sein des Datacenters du Cloud pourrait nous permettre de contourner ce problème. Il vise à développer un réseau entièrement optique, à l’échelle du Datacenter, complètement à plat, contrairement à la hiérarchie des commutateurs électroniques utilisés aujourd’hui. En éliminant les inefficacités de cette hiérarchie et en tirant parti des atouts de l’optique, un tel réseau pourrait fournir des performances meilleures et plus prévisibles tout en bénéficiant d’une fiabilité plus élevée et d’un moindre coût.
Sirius s’appuie sur les progrès récents de la commutation optique ultrarapide (de l’ordre de quelques nanosecondes) et de la maturité croissante de l’écosystème de fabrication optique. Cela ouvre l’opportunité passionnante de repenser complètement, à partir de zéro, la pile du réseau au sein du Cloud. Nous pensons que cela peut permettre de nouvelles applications et scénarios Cloud qui sont difficiles à prendre en charge aujourd’hui. Par ailleurs, ce qui est très intéressant dans ce projet, c’est qu’il évite la transformation de photons en électrons, puis à nouveau d’électrons en photons et qu’il est donc très économe en énergie et donc moins générateur d’empreinte carbone.
Projet Silica
Le projet Silica développe la toute première technologie de stockage conçue et construite à partir d’un nouveau support physique, pour le Cloud. Pour cela, nous exploitons les récentes découvertes de l’optique laser ultra-rapide pour stocker des données dans du verre de quartz en utilisant des lasers femtosecondes, et construisons un tout nouveau système de stockage conçu à partir de zéro autour de cette technologie. Cela ouvre l’opportunité de remettre en question et de repenser complètement la conception des systèmes de stockage traditionnels, et de coconcevoir la future infrastructure matérielle et logicielle pour le Cloud.
Le verre est modifié au point focal du rayon laser ; un voxel se forme alors. Une fois écrit, il subsistera pendant des millions d’années. Donc, le laser code les données en « voxels » en créant des couches de réseaux et de déformations nanométriques tridimensionnelles à différentes profondeurs et sous différents angles. Des algorithmes d’apprentissage automatique lisent ensuite les données en décodant les images et les motifs qui sont créés lorsque la lumière polarisée brille à travers le verre.
Pour donner une idée de l’intérêt de cette technologie, il faut simplement penser au prix du stockage d’un EO (exaoctet) sur des disques durs et à la consommation énergétique associée : avec la technologie d’aujourd’hui, cela représente environ 5 000 clusters, 30 milliards de $ en capital et une consommation énergétique de 1,1 GW ; avec la technologie qui sera disponible en 2025, il ne faudrait « que » 892 clusters, 5 milliards de $ et 357 MW… On voit clairement que la poursuite d’une approche classique n’est pas soutenable, ni financièrement, ni sur le plan énergétique.
Avec le projet Silica, on parle de stocker 60 EO dans un cluster pour 1 million de $ avec un temps de vie virtuellement infini pour un temps d’accès mesuré en minutes (à des fins d’archivage).
Projet Iris
Le projet Iris explore les voies de nouvelles conceptions, à partir de zéro, de réseaux Cloud régionaux et étendus (WAN) motivées par la croissance rapide du trafic réseau Cloud entre les Datacenters.
S’appuyant sur les récents progrès des technologies optiques, nous nous concentrons sur l’étude des architectures de réseau qui se prêtent à un modèle de Datacenters distribués et sur la conception des éléments optiques qui peuvent efficacement prendre en charge et mettre à l’échelle de telles architectures. Ceux-ci comprennent à la fois de nouveaux mécanismes matériels et d’échange de données tels que la construction d’émetteurs-récepteurs de nouvelle génération et de nouvelles technologies de commutation et de reconfiguration, ainsi que la redéfinition des mécanismes de contrôle et de gestion et la planification des capacités sur la base de principes définis par logiciel.
Le projet Iris cherche à innover sur l’ensemble de la pile Cloud en coconcevant l’infrastructure logicielle et matérielle du Cloud grâce à une équipe interdisciplinaire possédant une expertise des systèmes, des réseaux, de l’optique (système, sous-système, appareil) et du matériel. Dans le projet Iris, nous nous concentrons sur l’infrastructure régionale et WAN.
Stockage holographique
Nous travaillons également sur de stockage holographique appelé à remplacer les disques durs traditionnels.
Les CD, DVD et disques durs actuels stockent les informations sous forme de bits à la surface du support de stockage. Avec le stockage de données holographique, une page entière d’informations est stockée à la fois sous forme de motif d’interférence optique dans tout le volume d’un matériau optique photosensible épais. Cela est réalisé en faisant se couper deux faisceaux laser cohérents au sein du matériau de stockage. Le premier (le faisceau objet) contient les informations à stocker ; le second (le faisceau de référence) est conçu pour être simple à reproduire.
Le motif d’interférence optique résultant provoque des changements chimiques et / ou physiques dans le milieu photosensible : une réplique du motif est stockée sous la forme d’un changement dans l’absorption, l’indice de réfraction ou l’épaisseur du milieu. Lorsque le réseau d’interférence stocké est éclairé par l’une des deux ondes utilisées pendant l’enregistrement, le réseau diffracte une partie de cette lumière incidente de telle sorte que l’autre onde est reconstruite.
Le stockage de données holographiques est plus rapide que le stockage de données conventionnel pour deux raisons : (1) les faisceaux laser peuvent être déplacés rapidement sans inertie, contrairement aux bras qui sont utilisés au sein des unités de disques pour déplacer les têtes ; (2) les informations peuvent être lues et écrites sous forme de pages, de sorte que de grandes quantités de données peuvent être récupérées en un temps relativement court.
Les performances énergétiques, la densité, les performances intrinsèques de cette approche semblent très prometteuses.
Autres projets fondamentaux pour le futur des infrastructures du Cloud
Au-delà des projets reposant entièrement sur l’utilisation de l’optique de bout en bout, nous avons également réfléchi à de nouvelles approches permettant de repenser la consommation énergétique des datacenters et à l’utilisation d’ADN synthétique pour archiver des données.
Open Compute Project
Depuis que Microsoft a rejoint l’OCP (Open Compute Project) en 2014, nous avons partagé les mêmes conceptions de serveurs et de Datacenters que nous déployons dans le monde entier et la communauté OCP a pu profiter des innovations de Microsoft pour améliorer les performances, l’efficacité, la consommation d’énergie et les coûts (cf. https://azure.microsoft.com/en-us/global-infrastructure/hardware-innovation/), tout en mutualisant les risques.
Alors que beaucoup soutiennent avec raison que nous atteignons les limites de la loi de Moore, nous pensons que cette loi peut être appliquée à la réduction de moitié du coût tous les deux ans pour l’ensemble du campus d’un Datacenter et pas seulement au sein des puces de silicium elles-mêmes. Cela signifie que collectivement le réseau, le matériel et le Datacenter peuvent être optimisés en tant que système complet pour atteindre un tel objectif. Nous pensons que le refroidissement liquide et, en particulier, le refroidissement par immersion, permettent de nouvelles architectures que nous n’avions même pas commencé à imaginer auparavant. Nous voyons ainsi l’initiative OCP que nous avons largement contribué à développer depuis 2014 et l’ensemble de ses partenaires comme un moyen d’accélérer ce développement.
Bien que le refroidissement liquide soit une technologie qui a été utilisée dans des cas d’utilisation spécifiques, tels que par exemple le minage de bitcoins, nous investissons non seulement dans les solutions et technologies qui alimenteront de nouvelles architectures, mais nous nous concentrons également intensément sur les défis qui entreront en jeu au fur et à mesure que nous cherchons à étendre la portée de ces capacités à un Cloud hyper-échelle. Les solutions de type « Cold-Plate » (plaque froide) sont utilisées dans les superordinateurs depuis des années mais elles sont très personnalisées et ne sont pas conçues pour la facilité de maintenance et la fiabilité requises par le Cloud qui nécessite la mise en place d’opérations de niveau industriel, telles que l’on peut les trouver dans des usines. Microsoft collabore avec l’écosystème OCP, en particulier avec Facebook et CoolIT, pour établir des normes de développement de solutions de plaques froides aveugles pour les systèmes du Projet Olympus et d’Open Rack v3. Même si ces racks sont différents, il existe de nombreux composants communs :
- Standardisation de la connexion en aveugle, des collecteurs de refroidissement liquide et des débits du système.
- Pompes à liquide de refroidissement et échangeurs de chaleur en porte arrière.
- Refroidissement par immersion qui permet des systèmes et des conceptions de plate-forme beaucoup plus simples qui ne sont pas possibles avec de l’air ou des plaques froides.
- Une solution de bout en bout permettant de consommer le moins d’énergie possible par rapport à toutes les méthodes de refroidissement actuelles. De nombreuses analyses et collaborations sont en cours au sein du sous-groupe « Advanced Cooling Solutions » d’OCP.
- Industriels, 3M notamment, sur les fluides, en particulier les diélectriques.
- Wiwynn en tant que partenaire solide apportant ses systèmes d’immersion à OCP.
Les spécifications correspondantes sont disponibles ici. Voir également une présentation en vidéo de Microsoft.
Le refroidissement liquide à l’aide de diélectriques spécifiques dispose de 4000 fois la capacité thermique de celle de l’air. Sur un processeur Intel Xeon Gold 6290 CPU @ 3.20GHz que l’on équipe sur des lames (24 lames par rack) immergées, on gagne 122 W de puissance par lame (passage de 862 W à 740 W), soit presque 3 MW par rack.
Projet Natik
Le projet Natik (voir également https://natick.research.microsoft.com/), conçu en partenariat avec la société française Naval Group, cherche à explorer la capacité de déployer des Datacenters sous-marins. Ainsi, un Datacenter, après avoir été assemblé et testé en France et expédié sur un camion à plateau en Écosse, a été déployé en mer où il a été attaché à une base triangulaire remplie de ballast pour un déploiement sur le fond marin (situé à 1 Km de la côte et à 36 mètres de profondeur).
Voici quelques chiffres pour illustrer le concept :
- 12,2 m de long ; 2,8 m de diamètre ; 12 racks 42U; Puissance Maximum : 454 KW (38 KW/rack)
- Power Utilization Effectiveness : 1,07
- 864 serveurs Azure équipés de FPGA
Ce projet présente de nombreux avantages sur le plan énergétique :
- Refroidissement efficace grâce à l’eau de mer. Il n’y a aucun impact sur l’approvisionnement en eau locale ; en effet, la consommation d’eau de Natick est « nulle ». A comparer avec un Datacenter terrestre traditionnel qui utilise en moyenne 4,8 litres d’eau par kWh. Bien sûr, l’océan est composé d’eau et celle-ci est utilisée ici, mais de manière complètement différente. Ici, les cylindres sont scellés sous vide, ce qui évite aux serveurs et aux équipements informatiques de faire face à l’humidité et à la poussière. De plus, étant donné la qualité de la conductivité thermique de l’eau et la taille des océans, une fois qu’une installation est suffisamment profonde (disons 200 m), les températures ambiantes constantes et fraîches que l’on trouve peuvent être maintenues sans les mêmes fluctuations que celles observées dans les Datacenters terrestres et permettent d’être particulièrement économes en échanges thermiques.
- Haute densité de puissance de calcul pour le Machine Learning.
- Utilisable, y compris pour les climats chauds.
- Possibilité d’utilisation d’énergie offshore colocalisée ; par exemple, synergie avec l’éolien offshore.
Il présente également d’autres avantages significatifs :
- Proximité des clients avec un faible temps de latence vers les principaux bassins de population (qui sont situés près des côtes) sans besoin d’acquérir des terrains coûteux.
- Protection contre des événements de type « cygne noir » : à l’abri des événements de type Carrington ou des ouragans centenaires.
- Possibilité d’un déploiement rapide : 90 jours de la décision à la mise sous tension.
- Le module de la taille d’un conteneur d’expédition ISO est compatible avec la logistique mondiale ; il est ainsi possible de mettre en cluster plusieurs de ces sous-marins pour un déploiement plus efficace (assemblage de plusieurs sous-marins les uns à côté des autres)
Projet Palix
Le projet Palix permet le stockage de données au niveau moléculaire dans des molécules d’ADN synthétique en tirant parti des progrès de la biotechnologie dans la synthèse, la manipulation et le séquençage de l’ADN pour développer le stockage d’archives. Le mécanisme de stockage des données ADN est similaire à la façon dont l’ADN dans nos cellules encode les informations génétiques : au lieu d’utiliser des zéros et des uns électroniques, le système de codage traduit les données en paires de bases d’ADN, en utilisant les « lettres » chimiques pour l’adénine, la cytosine, la guanine et la thymine (A, C, G, T). « Bonjour », par exemple, pourrait être codé au sein de la chaîne chimique TCAACATGATGAGTA.
Il est important de noter que la molécule sur mesure concernée ne fait rien génétiquement. En fait, le système utilise simplement les produits chimiques contenus dans l’ADN comme code. Il n’y a donc pas de cellules, pas d’organismes vivants dans une telle molécule.
Cette méthode permet d’augmenter considérablement la densité de stockage des données. Théoriquement, il serait possible de stocker un milliard de milliards d’octets de données (c’est-à-dire un exaoctet) dans un pouce cube d’ADN.
Le logiciel du système convertit le code numérique en code ADN. Ce code est ensuite automatiquement envoyé à un synthétiseur qui combine les produits chimiques et liquides requis, dans le bon ordre et les bonnes proportions, puis « recrache » les molécules d’ADN sur mesure dans un récipient de stockage.
Pour lire les données, l’ADN est aspiré dans un appareil qui ajoute des produits chimiques et les pousse à travers une machine de séquençage d’ADN nanoporeuse. La séquence est alors automatiquement convertie en uns et zéros pour produire des données numériques. Cette approche permet de stocker 1 ZO par cluster pour environ 1M$ avec une durabilité de plusieurs milliers d’années et un accès se mesurant en heures (alternative aux robots d’archivage).
En guise de conclusion
Le Cloud et son évolution exponentielle constitue un défi permanent car notre très grande difficulté à anticiper des phénomènes de nature exponentielle nous contraint souvent à devoir résoudre des problèmes sans les avoir vraiment anticipés. C’est ce que nous avons vécu collectivement avec la crise du coronavirus dont les effets se feront certainement sentir encore à moyen terme.
Dans le cas du Cloud, notre incapacité à prévoir cette évolution nous a conduit à nous poser des questions que, sans ce phénomène de croissance exponentielle, nous n’aurions jamais imaginé de nous poser. Le paradoxe est que cette croissance exponentielle que nous avons tant de mal à apprivoiser a pourtant été le carburant de la révolution digitale depuis bien longtemps déjà (loi de Moore, loi de Metcalfe,…). La loi de Moore a ainsi constitué le modèle technico-économique qui a permis à l’industrie informatique de doubler les performances et les fonctionnalités de l’électronique numérique tous les deux ans environ à un coût, une puissance et une surface de composants fixes. Ceci a conduit à la mise en place d’un écosystème relativement stable (par exemple, des outils d’automatisation de la conception électronique, des compilateurs, des simulateurs, des émulateurs,…) construit autour de technologies de processeur à usage général, telles que les architectures de jeu d’instructions x86, ARM et Power. Cependant, dans une décennie environ, les fondements technologiques du processus décrit par Gordon Moore prendront fin, alors que la lithographie passera à l’échelle atomique. Et c’est précisément à cause de la remise en cause de cette loi si importante pour l’écosystème numérique tout entier que le passage à l’optique peut faire tout son sens ; par exemple, en évitant de continuer d’utiliser de l’électronique pour réaliser la commutation de paquets réseau puisque cette électronique ne peut plus faire face aux demandes dans le contexte d’une évolution des besoins réseau qui reste exponentielle.
Mais ce n’est qu’une des conséquences de cette évolution : il va falloir envisager de passer à de nouveaux moyens de réaliser des calculs : (1) en spécialisant davantage les processeurs (voir à ce sujet la conférence passionnante de John Hennessy and David Patterson quand ils ont été récompensés par le prix Turing, l’équivalent du prix Nobel en informatique), (2) en faisant appel à des approches radicalement différentes : ordinateur quantique sur lequel travaille Microsoft depuis 1997, ordinateur biologique sur lequel travaille également Microsoft au sein de sa Station B,…
« Celui qui croit à une croissance exponentielle infinie dans un monde fini est soit un fou, soit un économiste » [Kenneth E. Boulding]. Nous vivons, en l’état actuel de nos connaissances, dans un monde fini qui se situe dans un univers que nous pensons infini : « le temps du monde fini commence » nous disait déjà Paul Valéry en 1931. Ce que démontre, à mon sens, à l’évidence cette volonté farouche d’innover pour poursuivre ensemble notre « surf sur l’exponentielle », c’est que nous disposons d’un outil pour nous affranchir de cette finitude : l’infini de la connaissance passée, présente et à venir. Pas seulement pour ce qui concerne les sciences mais aussi l’art et la philosophie. Nous-mêmes sommes, par nature, condamnés à la finitude, puisque la mort est constitutive de notre être. Pourtant, nous continuons coûte que coûte à améliorer, à inventer, à innover,… Nous aspirons donc irrésistiblement à l’infini… de l’exponentielle… malgré toutes nos limites cognitives qui nous la rendent si difficilement accessible…