À Kubecon Europe 2026, la question passe de « que peut faire l’IA ? » à « comment garder le contrôle ? »
La communauté cloud a plus ou moins atteint l’objectif qu’elle poursuivait depuis des années : l’infrastructure est standardisée, Kubernetes est la norme et les développeurs peuvent s’appuyer dessus sans plus s’inquiéter. Même avec les solutions des hyperscalers, la couche d’infrastructure est reconnaissable.
Nous savons désormais que la communauté s’agrandit également. Mais tout ne fonctionne pas parfaitement. Lors du discours d’ouverture, cela devient évident avec un seul chiffre : Kubernetes atteint 82 % d’adoption, tandis que l’IA en production quotidienne atteint à peine 7 %. La base est là, mais ce qui doit tourner dessus n’est pas encore au même niveau.
Les entreprises expérimentent pleinement l’IA, mais la production reste à la traîne. Ou comme le résume Jim Zemlin, PDG de la Linux Foundation : tout le monde est en phase de preuve de concept, mais peu d’entreprises l’ont déjà rendue réellement opérationnelle.
L’IA est partout (mais ne fonctionne pas encore partout pour autant)
Copilotes, chatbots, agents et outils internes sont intégrés partout. Il y a seulement encore trop de preuves de concept qui n’arrivent pas au stade de la production. Nous l’entendons non seulement à Kubecon, mais chez chaque spécialiste du cloud, de l’hébergement et de l’infrastructure.
De nombreux projets fonctionnent mais n’atteignent pas la ligne d’arrivée parce qu’ils sont soit trop coûteux, soit trop complexes à gérer. À l’heure actuelle, ce n’est donc pas la construction de l’IA qui est difficile, mais le maintien opérationnel de ces créations intelligentes.
Cette nuance se retrouve également dans les discussions en coulisses. Les entreprises construisent souvent de nouvelles solutions d’IA indépendamment de leur infrastructure existante, pour devoir ensuite les réintégrer plus tard. Cela entraîne des retards, mais surtout de la complexité. Chris Aniszczyk, CTO de la CNCF, souligne ce problème : les équipes qui « doivent faire quelque chose rapidement avec l’IA » construisent des piles séparées, pour réaliser ensuite qu’elles doivent à nouveau les sécuriser, les mettre à l’échelle et les gérer au sein de leur plateforme existante.
L’inférence est le « nouveau problème »
Un terme qui revient continuellement est l’inférence. Il ne s’agit donc pas de l’entraînement des modèles, mais du moment où ils doivent effectivement accomplir une tâche. C’est là que réside aujourd’hui le véritable défi. Les charges de travail d’inférence sont exigeantes en termes d’infrastructure par rapport aux applications classiques. Elles demandent d’autres formes d’équilibrage de charge, d’autres manières de monter en charge et surtout une autre vision des coûts. Cela en fait un problème qui ne peut être résolu avec un seul outil.
tout le monde est en phase de preuve de concept, mais peu d’entreprises l’ont déjà rendue réellement opérationnelle.
Jim Zemlin, PDG de la Linux Foundation
Selon la CNCF, l’ensemble du marché de l’IA évolue dans cette direction. D’ici la fin de cette année, l’inférence représentera déjà la majeure partie de l’IA, avec une trajectoire de croissance qui, selon elle, est « inédite dans le secteur technologique ». C’est logique : l’entraînement de modèles avancés coûte des milliards et est devenu en un temps record le domaine d’une poignée d’entreprises spécialisées.
Kubernetes obtient un nouveau rôle
Dans ce contexte, Kubernetes prend une autre signification. Ce n’est plus simplement la couche sur laquelle tournent les applications, mais cela devient progressivement le lieu où les charges de travail d’IA sont contrôlées et dirigées. Deux tiers de l’IA générative tournent déjà aujourd’hui sur Kubernetes car, selon la Linux Foundation, c’est le seul environnement offrant une flexibilité suffisante.
C’est pourquoi Kubernetes devient de plus en plus la base de l’IA, où les décisions sont prises concernant les ressources, l’échelle et les performances. Mais en même temps, il devient clair que Kubernetes lui-même doit évoluer pour pouvoir assumer ce rôle.
Les grands acteurs se tournent vers la même couche
Ce changement se voit également à travers les intervenants sur scène. Nvidia, AWS, Google Cloud et Red Hat apportent tous leur propre vision. Nvidia se concentre sur l’ensemble de la pile IA, du matériel au logiciel. Les fournisseurs de cloud intègrent Kubernetes plus profondément dans leurs plateformes d’IA en tant que couche de contrôle. Red Hat continue de jeter des ponts vers les environnements d’entreprise. Tout le monde s’appuie sur le même fondement et l’open source y est une base nécessaire pour permettre la collaboration.
L’IA tourne-t-elle ou fonctionne-t-elle efficacement ?
Le fait que les charges de travail d’IA tournent sur Kubernetes ne signifie pas qu’elles tournent de manière optimale. De nombreuses entreprises sont encore dans une phase qui rappelle les débuts de l’adoption du cloud. Les charges de travail ne sont pas encore réellement optimisées, les coûts grimpent rapidement et les outils ne sont pas encore adaptés à ces nouveaux flux de travail.
En Europe, un facteur supplémentaire entre en jeu. Le cloud privé y reste le choix dominant selon le rapport State of Cloud, avec environ 39 % des développeurs qui misent dessus. Le cloud hybride progresse, mais reste légèrement en retrait par rapport à d’autres régions. Cette prudence est liée à la réglementation, qui détermine encore et toujours ici la vitesse de l’innovation.
Aniszczyk évoque également une nouvelle pression sur les équipes d’infrastructure. Non seulement elles doivent intégrer l’IA, mais elles doivent aussi gérer la complexité, les outils et les risques de sécurité.
De l’infrastructure à l’intelligence
Kubernetes tient enfin ses promesses. L’infrastructure fonctionne, est évolutive et largement utilisée. Mais l’IA n’est pas encore à ce niveau. La technologie est là, l’intérêt aussi, mais l’opérationnalisation ne se produit pas encore. Et c’est précisément là que réside aujourd’hui le plus grand défi pour les entreprises. Le problème n’est pas ce que l’IA peut faire, mais comment la rendre fiable, abordable et évolutive.
