La plus grande puce AI au monde trouvera-t-elle des acheteurs?

Les cerveaux ORDINATEURS sont de minuscules rectangles qui rétrécissent à chaque nouvelle génération. Ou alors c'était comme ça. Ces jours-ci, Andrew Feldman, le patron de Cerebras, une startup, tire un bloc de plexiglas de son sac à dos. Cuit au four est un microprocesseur de la taille d'un papier à lettres (photo). «C’est le plus gros du monde», déclare-t-il avec fierté. Il présente ses spécifications techniques: 400 000 cœurs (sous-cerveaux), 18 gigaoctets de mémoire et 1,2 trn de transistors. Cela représente respectivement environ 78, 3 000 et 57 millions de fois le plus grand processeur existant de Nvidia, un grand fabricant de puces.

Cerebras – le nom fait écho à cérébrum, la partie avant du cerveau, ainsi que Cerberus, le chien géant à trois têtes qui garde l'entrée de Hadès – dirige un virage dans les semi-conducteurs qui était en évidence à Hot Chips, un rassemblement de l'industrie à la Stanford University, où des startups, parmi lesquelles Cerebras et Habana, mais aussi des géants tels que Nvidia et Intel, ont présenté leurs nouveaux produits en silicium plus tôt cette semaine. Grâce à la loi de Moore, qui stipule que la puissance des ordinateurs double tous les deux ans au même coût, il était de plus en plus bourré de transistors sur des puces standard. Mais avec des transistors de la taille de dizaines d'atomes, les améliorations sont devenues moins prévisibles. Et avec la propagation de l’intelligence artificielle (IA), la demande de puissance de calcul a augmenté beaucoup plus rapidement que la loi de Moore – plus de 300 000 fois pour certaines applications entre 2012 et 2018, d’après certaines estimations. En conséquence, les fabricants de puces améliorent désormais leurs performances, notamment en augmentant la taille des processeurs qui inhalent des données pour former des services d'IA, tels que la reconnaissance faciale.

Cerebras a poussé cette approche à l'extrême: sa puce est la plus grande qui puisse être découpée dans les plus grandes tranches disponibles, les feuilles rondes de silicium dans lesquelles sont gravés les transistors. Pour y parvenir, l’entreprise a dû surmonter plus d’un obstacle technique. L’un concerne les défauts: chaque tranche en contient, l’équipe de M. Feldman a donc dû trouver un moyen de contourner les cœurs défectueux. Un autre est le refroidissement: l’eau pompée à travers de minuscules conduits évacue la chaleur générée par les noyaux. Mais ce n’est pas tout: Cerebras a également construit un ordinateur spécialisé pour sa nouvelle puce qui, selon elle, offrira 150 fois plus de puissance de calcul que le meilleur serveur basé sur des unités de traitement graphique, qui sont aujourd’hui des chevaux de Troie.

À Hot Chips, les participants ont été passablement impressionnés lorsque Cerebras a présenté son nouveau processeur. Mais le plus gros obstacle pour la société peut être économique, pas technique, dit Linley Gwennap de Rapport de microprocesseur, un bulletin d'information de l'industrie. L'entreprise doit convaincre les grands fournisseurs d'informatique en nuage, tels qu'Amazon Web Services, Microsoft Azure et Google Cloud, qu'il vaut la peine d'utiliser des ordinateurs Cerebras plutôt que des machines dotées de puces Nvidia, par exemple en matière de consommation d'énergie. Une autre question est de savoir si d’autres entreprises très demandeuses en matière de puissance de calcul, y compris les banques et les grands groupes pétroliers, voudront acheter de tels superordinateurs d’IA, au lieu de voir leurs données regroupées dans un nuage. Ne soyez pas surpris si Cerebras est repris par une entreprise plus importante, qu’il s’agisse d’un autre fabricant de puces ou d’un fournisseur d’ordinateurs, comme tout autre pionnier de la puce d’IA.

Laisser un message

Your email address will not be published.