Renforcé par Nvidia : Nutanix étend davantage sa solution d’IA

Renforcé par Nvidia : Nutanix étend davantage sa solution d’IA
oplus_3145728

Nutanix lance une nouvelle version de sa solution d’IA d’entreprise. Celle-ci offre notamment une intégration plus profonde avec la suite Nvidia AI Enterprise.

Lors de sa conférence .Next à Washington D.C., Nutanix annonce la disponibilité générale de la dernière version de Nutanix Enterprise AI (NAI). Cette nouvelle version de ce qui s’appelait auparavant GPT-in-a-Box comprend une intégration étendue avec Nvidia AI Enterprise, y compris les microservices Nvidia NIM et le framework Nvidia NeMo.

Avec cette intégration, Nutanix vise à faciliter le déploiement d’applications d’IA agentiques dans l’environnement d’entreprise. NAI a pour objectif d’accélérer l’adoption de l’IA générative dans les entreprises en aidant les clients à construire, exécuter et gérer en toute sécurité des modèles d’IA et des services d’inférence, le tout au sein de l’environnement Nutanix.

À l’instar du reste de la plateforme Nutanix, NAI est également agnostique en termes de localisation. La solution fonctionne aussi bien en périphérie des réseaux, dans les centres de données que dans les environnements de cloud public. Kubernetes est la pierre angulaire du système.

L’IA et le centre de données autonome

Selon Nutanix, la dernière version facilite le déploiement des charges de travail d’IA, simplifiant ainsi les opérations quotidiennes. Des agents seront en mesure d’agir sur les anomalies dans le centre de données, annonce-t-on sur scène. Nutanix inaugure ainsi l’ère du centre de données autonome.

NAI rationalise les ressources et les modèles nécessaires pour déployer diverses applications dans différents départements. Cela se fait avec un ensemble sécurisé et commun de modèles d’intégration et de réorganisation, qui assurent la fonctionnalité des agents d’IA. La solution comprend également un référentiel centralisé de modèles LLM, permettant aux clients de connecter facilement et de manière privée des applications d’IA générative.

Efficacité

La nouvelle version de NAI prend en charge le déploiement d’applications d’IA agentiques avec des points de terminaison LLM partagés. Cela permet la réutilisation des points de terminaison de modèle pour plusieurs applications, réduisant ainsi l’utilisation de composants d’infrastructure critiques tels que les GPU, les CPU, la mémoire et le stockage.

NAI offre en outre un support pour les modèles Nvidia, tels que les modèles de raisonnement ouvert Llama Nemotron et NeMo Guardrails, qui aident à développer des solutions d’IA sûres et fiables.

De plus, la solution NAI offre des capacités de sécurité pour l’IA générative, permettant aux entreprises de déployer des applications d’IA conformément à leurs propres politiques. NeMo Guardrails aide à filtrer les contenus indésirables et à améliorer la fiabilité de la génération de code.

En collaboration avec Nvidia

Aucun de ces éléments n’est réellement révolutionnaire en soi. En fait, Nutanix associe simplement les ajouts les plus récents de l’écosystème Nvidia Enterprise AI à sa propre solution d’IA. C’est pertinent pour les clients de Nutanix et s’inscrit dans une tendance plus large. En matière d’innovation en IA, Nvidia tient les rênes. Il incombe ensuite aux tiers de lier les capacités d’IA de Nvidia à leur propre plateforme, combinant ainsi ce vaste écosystème avec les avantages de leur propre environnement.

« L’année dernière, nous avons entamé notre collaboration avec Nvidia », déclare encore le PDG Rajiv Ramaswami sur scène. « Toutes les solutions de Nvidia sont intégrées dans notre solution. Nous rassemblons tout, le rendons simple et vous offrons des coûts prévisibles, tant sur site que dans le cloud. »