La loi de Moore arrive à son terme: comment va évoluer l’informatique désormais?

[PICTURE|sitecpic|lowres]

On compte près de 1,4 milliards de smartphones sur la planète, et les puces qu’ils intègrent sont conçues par la société ARM, en Angleterre, à Cambridge. Les puces ARM, une création de Stephen Furber, un professeur de calcul informatique de l’Université de Manchester en 1980, sont issues d’une approche simplifiée du calcul informatique.

Mais la puce ARM, comme toutes les autres puces informatiques, est condamnée en raison de l’épuisement de la plus célèbre des lois de l’informatique : la fameuse loi de Moore. En 1965, Gordon Moore, le fondateur d’Intel, avait écrit que le nombre de transistors sur une puce d’ordinateur doublerait tous les 18 mois (ce qui a été plus tard corrigé pour être porté à 2 ans), ce qui signifie que la  puissance des ordinateurs doublerait en conséquence, et que leur coût s’effondrerait aussi rapidement.

Cette loi s’est vérifiée et elle décrit parfaitement l’incroyable évolution à laquelle nous avons assisté avec les ordinateurs sur les 50 dernières années, mais selon The Connectivist, les lois de la physique font que ce progrès n’est pas éternel. En effet, les transistors sont faits d’atomes. Pour pouvoir mettre des transistors supplémentaires sur une puce d’ordinateur, il faut créer un espace supplémentaire. Or, plus l’on réduit la taille des atomes pour pouvoir en mettre davantage sur une puce, plus l’on converge vers le point où l’on ne peut plus en ajouter davantage. Et même avant l’arrivée à ce point, l’efficacité des transistors les plus minuscules n’est plus aussi grande, et cette réduction de plus en plus difficile à obtenir devient de plus en plus coûteuse. Les innovations telles que les transistors 3D, qui ont permis de gagner en densité, et donc d’ajouter plus de transistors sur une puce, ne changent rien à ce fait.

Les scientifiques s’intéressent donc à des stratégies alternatives pour pouvoir développer l’intelligence des puces, et contrer la fin de la loi de Moore:

✔ L’une de ces stratégies est appelée «parallélisation»: elle consiste en une duplication d’une particularité du cerveau humain qui lui permet d’être multitâche, c’est-à-dire de plusieurs résoudre plusieurs problèmes simultanément en faisant intervenir plusieurs de ses parties.

Le professeur Furber travaille ainsi sur le projet SpiNNaker, une expérience en parallélisation informatique qui utilise un million de processeurs ARM pour recréer le fonctionnement neuronal. «Les progrès en architecture informatique ont été limités, dans une certaine mesure, parce que la loi de Moor s’appliquait toujours, et que l’on en tirait des progrès. Maintenant qu’elle commence à s’épuiser, il est temps pour les architectes informatiques et les ingénieurs logiciels de faire plus d’efforts », commente Furber.

✔ D’autres alternatives s’intéressent aux composants, et notamment au remplacement du silicium par des nanotubes de carbone, qui sont plus efficaces sur le plan énergétique.

✔ Un troisième champ d’étude concerne l’informatique quantique, qui offrirait une alternative au paradigme binaire de l’informatique. Actuellement, un bit ne peut prendre que la valeur 1 ou 0. Avec l’informatique quantique, chaque bit pourrait prendre un nombre potentiellement infini de valeurs, ce qui pourrait ouvrir la possibilité de réaliser plusieurs calculs simultanément.