Aller au contenu

Extropic : la promesse d'une nouvelle croissance pour l'IA générative

L’IA générative atteint une limite énergétique : les GPU gagnent en débit, pas en joules par résultat. Cet article chiffre ce décrochage et explore l’alternative d’Extropic — circuits probabilistes/TSU, échantillonnage local — pour des gains d’efficacité potentiellement massifs.

Un arbre technologique dans une ville futuriste où les sigles "IA", "Énergie", "Futur" et "GPU" apparaissent en projection dans le ciel.
IA • énergie • futur

En moins de cinq ans, l’IA générative est passée d’une curiosité de laboratoire à une infrastructure mondiale reposant sur des grappes de GPU consommant des mégawatts. Cette expansion s’accompagne d’un défi majeur : le mur énergétique. Les modèles géants exigent une puissance qui croît bien plus vite que l’efficacité des puces, et certains centres de données consomment déjà autant qu’une ville moyenne.

Dans ce contexte apparaît Extropic, fondée par des chercheurs du MIT et de Stanford, qui propose une rupture : le calcul thermodynamique probabiliste.
Dans une présentation récente, son CTO décrit une vision où l’on exploite les fluctuations physiques au lieu de les supprimer. Leur matériel, la Thermodynamic Sampling Unit (TSU), ne calcule pas de façon déterministe : il échantillonne des états probables à partir d’une distribution d’énergie, inspirée de la physique statistique.

Cet article résume cette approche, ses fondements et les enjeux énergétiques de l’IA moderne.

Quand la physique reprend la main sur l’IA

Les concepts clés d’Extropic

L’informatique classique contraint la matière à se comporter de manière parfaitement déterministe et dépense beaucoup d’énergie à éliminer les fluctuations. Extropic adopte l’inverse : utiliser le bruit thermique comme ressource.

Le composant de base, le p-bit (probabilistic bit), oscille en permanence entre 0 et 1 selon une probabilité ajustable.

Diagramme comparant les circuits traditionnels avec les circuits probabilistes : voltages déterministes en sortie contre voltages aléatoires (en fonction d'une distribution de probabilité)
Comparaison entre les circuits traditionnels et probabilistes

En couplant des milliers de p-bits, un TSU explore naturellement des distributions complexes et converge vers un équilibre statistique — un comportement impossible à reproduire efficacement sur GPU.

Comparaison de l'architecture d'un GPU avec un TSU : multiplication de matrices versus échantillonnage d'une distribution de probabilités
Comparaison des architectures de type GPU vs TSU

Un calcul qui incarne les modèles énergétiques

Les TSU reposent sur les principes des Energy-Based Models (EBM) et des Boltzmann Machines, dont ils incarnent directement la dynamique plutôt que de la simuler via des multiplications matricielles.

Les fluctuations thermiques deviennent le moteur de l’échantillonnage : moins d’opérations, moins de mouvements de données, donc un calcul plus rapide et plus économe.

Le goulet d’étranglement énergétique de l’IA

L’IA moderne voit sa demande en énergie doubler tous les 6 à 12 mois (voir Epoch). L’entraînement d’un modèle de 175B de paramètres consommait déjà 1 287 MWh en 2021 (voir l'étude de Berkeley) ; les modèles plus grands atteignent plusieurs GWh. Mais c’est surtout l’inférence quotidienne qui explose.

Selon l’IEA, les data centers IA pourraient atteindre 90 TWh/an d’ici 2026, équivalant à un pays comme l’Autriche.

Évolution passée et estimée des besoins en production de GPU et d'énergie : les besoins sont impossible à satisfaire
L'évolution passée et future des besoins énergétiques et de production de GPU pour l'IA

Les gains d’efficacité des GPU stagnent, alors que les besoins augmentent de plusieurs ordres de grandeur. Le calcul numérique classique se heurte aussi aux limites fondamentales (principe de Landauer) et au coût croissant des transferts de données et du refroidissement.

À ce rythme, l’IA pourrait absorber plus de 10 % de la production électrique mondiale d’ici 2030.

Avec les GPU on atteint un plateau d'évolution qui serait repoussé avec les TSU
Avec les GPU, l'énergie disponible nous limite : être plus efficace devient obligatoire

La rupture d’Extropic

Extropic ne cherche pas à optimiser les architectures numériques mais à changer la nature du calcul.

L’approche locale, distribuée, thermodynamique vise à s’approcher de la limite physique minimale d’énergie par bit traité. L’entreprise avance des gains potentiels de ×10 000 sur certaines tâches probabilistes.

Implications pour les ingénieurs et le logiciel

Extropic oblige à intégrer l’énergie comme métrique centrale :

  • mesurer la consommation par tâche ou par inférence ;
  • arbitrer qualité / latence / dépenses énergétiques ;
  • renforcer les techniques de compression, sparsité, quantification.

L’informatique pourrait évoluer vers des architectures plus locales, où des modèles spécialisés coopèrent au lieu de centraliser un modèle géant dans un seul cluster.

Explication du fonctionnement interne de l'architecture des TSU
Brève explication pratique du fonctionnement des TSUs

Si les TSU arrivent sur le marché, ils nécessiteront de nouvelles abstractions logicielles : API d’échantillonnage matériel, réintroduction des modèles énergétiques, optimisation par dynamique physique plutôt que par gradient pur.

Comparaison entre les algorithmes de l'ère du Deep Learning vers celle du ML thermodynamique
L'évolution nécessaire des algorithmes IA

Ce mouvement marque le retour de la physique au cœur du calcul, après des décennies d’abstraction.

Conclusion : revenir à la matière

L’IA moderne se heurte à une limite fondamentale : chaque bit retourné consomme de l’énergie, et cette dépense augmente plus vite que nos capacités à la compenser.

Extropic propose un retour aux fondations physiques du calcul : laisser la matière effectuer naturellement le travail probabiliste, plutôt que faire tourner toujours plus de GPU.

Cette vision n’est pas seulement matérielle : elle invite à une sobriété conceptuelle, à des systèmes plus locaux, plus proches des dynamiques naturelles, et à une IA conçue comme une organisation physique de l’information, plutôt que comme un empilement abstrait de multiplications matricielles.

Un changement de paradigme, peut-être indispensable, dans un monde où chaque joule compte.

Dernier