Le neuromorphisme a pour ambition de simuler la « logique » de notre système cérébral, modèle de sobriété énergétique. Une évolution qui sera peut-être nécessaire pour étancher la soif d’énergie de l’IA.
Des puces électroniques qui imitent le fonctionnement de notre cerveau : voici l’ambition des chercheurs en électronique neuromorphique, l’une des branches les plus prometteuses des sciences de la micro-électronique. Et on ne se projette pas dans un futur lointain… IBM et Intel, par exemple, ont déjà abouti à des résultats concrets.
Mais pourquoi vouloir reproduire la structure et la « logique » du cerveau humain ? Parce que les CPU et les GPU œuvrant dans nos PC et nos smartphones commencent à montrer des limites.
Il est vrai que ces bêtes en calcul sont incomparables quand elles doivent traiter des informations numériques regroupées dans un tableur. Mais on demande aujourd’hui à la « machine » de discerner une personne dans une photo ou de traduire un discours à la volée. Elle doit « apprendre » à le faire à partir de gigaoctets d’images et de sons, des données non structurées plus difficiles à analyser par des algorithmes.
CPU et GPU : puissants mais gourmands
Les processeurs actuels y parviennent malgré tout, car les IA ont accompli d’immenses progrès avec l’appui des réseaux de neurones virtuels, des techniques d’apprentissage (machine/deep learning) et des architectures massivement parallèles des GPU.
Mais à quel prix ! On ne cesse d’empiler les transistors dans les CPU, les GPU et les puces DRAM, puis d’augmenter les gigahertz pour que les performances se maintiennent voire progressent. Hélas, la loi de Moore, qui stipule que le nombre de transistors double tous les 18 mois, a du plomb dans l’aile, à cause de limitations physiques.
Surtout, la dépense énergétique est considérable. Illustration avec AlphaGo, développé par Google DeepMind, qui a affronté au jeu de go les meilleurs joueurs du monde entre 2015 et 2017 : ce programme informatique mobilisait une puissance estimée à 150 000 watts ! En face, le cerveau des adversaires humains, pleinement concentrés, n’en consommait qu’une vingtaine.
L’IA a triomphé sans gloire, le cerveau humain continuant de prouver sa supériorité en matière d’efficacité énergétique. Autant s’en inspirer, pour que les IA s’épanouissent à l’avenir sans monopoliser la totalité de nos réacteurs nucléaires.
Imbriquer les processeurs et la mémoire
C’est donc le principe de la micro-électronique neuromorphique, prenant le cerveau comme modèle.
La première mesure est radicale : un circuit bio-inspiré rompt avec l’architecture de Von Neumann, qui gouverne la conception électronique depuis plus d’un demi-siècle.
Dans un CPU en effet, les unités de calcul arithmétique et logique sont séparées de la mémoire qui stockent les informations. Ces aller-retours incessants gaspillent du temps et de l’énergie. Dans le cerveau au contraire, les neurones, apparentés aux processeurs, et les synapses, considérées comme des cellules de stockage mémoire, sont interconnectés et même entremêlés.
Ainsi, un neurone peut-il être relié à 10 000 autres par l’intermédiaire des synapses. L’information circule à toute vitesse moyennant une dépense énergétique infinitésimale.
Cette branche de l’ingénierie électronique induit d’autres révolutions. L’horloge est abandonnée, par exemple, puisqu’on vise des échanges asynchrones, à la manière de ce que fait le vivant. Par ailleurs, l’analogique est remis au goût du jour, brisant la règle du tout-numérique. Le cerveau est en effet le siège d’impulsions binaires et aussi de signaux variables et continus.
Si le neuromorphisme a été conceptualisé dès la fin des années 80 par Carver Mead, chercheur au Caltech, sa concrétisation dans et hors les labos a attendu une bonne vingtaine d’années. C’est en 2014 qu’IBM a dévoilé son premier circuit électronique, Truenorth, inspiré par notre système cérébral et financé par la Darpa, l’éminence grise de l’armée américaine. Gravé à 14 nm et composé de 4096 coeurs, Truenorth équivaut à un million de neurones et 256 millions de synapses.
Intel, en 2018, présentait à son tour la puce Loihi, gravée en 14 nm, contenant 130 000 neurones et 130 millions de synapses. Citons également le supercalculateur SpinNaker, mis au point par l’université de Manchester notamment. L’objectif est ici de simuler le fonctionnement d’un milliard de neurones. Les projets dans ce domaine se multiplient depuis quelques années.
La recherche académique s’attelle à démontrer le potentiel de ces puces neuromorphiques dans la simulation, la reconnaissance d’images, la robotique, etc. L’an dernier, l’université de Cornell, aux Etats-Unis, a indiqué travailler sur un système olfactif basé sur des centaines de processeurs Loihi. Ce « nez » électronique, conçu pour « sentir » des composés chimiques, n’a besoin que d’un seul échantillon pour apprendre une odeur, alors qu’il en faut 3 000 à un système plus classique utilisant du deep learning.
Dans le même genre, la rétine artificielle du français Prophesee est dédiée à la vision industrielle, le comptage par exemple. Ces capteurs à vision dynamique, étant donné leur rapidité et leur sobriété énergétique, pourraient être embarqués dans les véhicules autonomes. Et n’oublions pas les NPU, qui ont fait leur entrée dans nos smartphones.
Vers les nano-neurones
Toutefois, il reste encore beaucoup à faire, dans le registre énergétique pour commencer. Certes, Truenorth, malgré ses 5,4 milliards de transistors, ne consomme que 65 milliwatts. Chaque opération synaptique ne « brûle » que 25 picojoules. C’est très peu… mais toujours 1 000 fois plus que ce réclame un synapse dans notre cerveau !
Le calculateur SpinNaker occupe plusieurs mètres-cube et dépense des milliers de watts alors qu’il ne simule qu’un milliard de neurones. A peine plus que le cerveau d’un chat…
Il faudra sans doute de grosses évolutions technologiques pour espérer mieux. Après tout, ces puces reposent toujours sur des transistors CMOS, mais organisés différemment. Des pistes de recherches mènent à de nouveaux matériaux ou aux nanotechnologies, comme les nano-neurones et nano-synapses à base de memristors.
D’autre part, les algorithmes et les langages de programmation devront probablement être repensés pour tirer le meilleur parti de l’électronique neuromorphique. Enfin, notre cerveau est encore loin d’avoir livré tous ses secrets et les modèles actuels sont forcément très incomplets. Le système neuromorphique qui sera capable de rivaliser avec nos capacités cognitives n’est pas né…