Snowflake devient de plus en plus un spécialiste des données. Désormais, il est possible de exécuter des conteneurs sur la plate-forme Snowflake. La société se charge de la complexité et de la gestion.
Snowflake a lancé un service géré pour les conteneurs. Grâce à ce service, on peut exécuter des conteneurs au sein de la plate-forme Snowflake. Le service entier est essentiellement une solution Kubernetes gérée, permettant d’exécuter du code en toute liberté dans des conteneurs Docker. La gestion de l’infrastructure sera assurée par Snowflake. Le service s’appellera Snowflake Container Services.
Quant au back-end, le discours est le même. La complexité sous-jacente sera gerée par Snowflake, tout comme tout ce qui concerne la gestion. « Les conteneurs Snowpark sont prêts à l’emploi. Avec Snowpark Container Services, le client peut exécuter une image Docker sur le Data Cloud pendant que Snowflake s’occupe de tout ce qui doit se passer en dessous, » explique Prasanna Krishnan, directeur de la gestion des produits pour le partage des données chez Snowflake.
À l’abri dans Snowflake
L’aspect gestion n’est donc pas unique, mais l’endroit où les conteneurs fonctionnent vraiment l’est. Snowflake les intègre dans sa propre plate-forme, au sein de son système de gouvernance des données. Les conteneurs sont amenés aux données, pour ainsi dire, de sorte à éviter l’inverse. Ils sont alors sujets à toutes les règles de gouvernance et de politique qui s’appliquent aux données de Snowflake.
Les charges de travail doivent venir vers les données.
Frank Slootman, PDG de Snowflake
C’est important. « En intégrant les données aux applications, on crée des silos », explique Frank Slootman, PDG de Snowflake. « Il faut lutter contre ce phénomène. Les charges de travail doivent venir aux données. »
Taillé pour l’IA
Quelles charges de travail ? Quasiment toutes, y compris celles liées à l’IA. Snowflake utilise les conteneurs comme solution pour apporter à Snowflake des grands modèles de langage (« Large language model, LLM ») externes. Ces LLM peuvent provenir de Nvidia, avec qui Snowflake a annoncé un partenariat, mais aussi de parties externes telles que AI21Labs et Reka.
Les conteneurs avec les modèles n’ont pas assez de puissance de calcul classique pour fonctionner au mieux. « À notre époque, il vous faut également un support GPU », reconnaît Christian Kleinerman, vice-président senior pour les produits chez Snowflake. Grâce à la collaboration avec Nvidia, il est désormais possible de le faire, sans quitter la plate-forme Snowflake. « La formation est dix fois plus rapide grâce à l’accélération des GPU Nvidia et deux fois plus rentable », ajoute Kleinerman.
Applications natives
Le service de conteneur est optionnellement intégré au Native App Framework de Snowflake, qui est désormais généralement disponible pour les clients d’AWS. Il permet aux utilisateurs de placer des applications dans des conteneurs et de les publier en tant que solution complète.
« Il est possible de publier une application de conteneur en tant qu’application », explique Krishnan. « Mais il est également possible de publier une autre application native qui utilise un service de conteneur fonctionnant sur le site de l’utilisateur ou du fournisseur. Le conteneur offre alors une fonctionnalité, telle qu’un LLM. »
Snowflake Container Services est une annonce très importante pour Snowflake. L’entreprise insiste sur le fait que les données doivent toujours être centralisées, sécurisées et gérées en un seul endroit et que le code doit y être transféré. Grâce au service de conteneurs, cette idée devient tout à coup réalité de manière très large.