Nutanix, Spezialist für hybrides Multicloud-Computing, arbeitet mit
Nvidia zusammen, damit Unternehmen generative künstliche Intelligenz (GenAI) rascher einführen und verwenden können. Was laut einer gemeinsamen Mitteilung kleineren Firmen fehle, sei ein schneller und einfacher Zugang zu verbreiteten GenAI-Modellen abseits der Public Cloud – sowohl im Unternehmen als auch in Edge-Umgebungen.
Um diese Situation zu ändern, arbeitet nun die automatisierte Enterprise-KI-Plattform von
Nutanix mit den Inference-Microservices Nvidia NIM zusammen. Dadurch sollen Kunden "den Nutzen von GPT-in-a-Box 2.0 von Nutanix voll ausschöpfen können". Die Lösung von Nutanix baut auf der Plattform des Anbieters auf und ermöglicht eine einfachere Bereitstellung und einen effektiveren Betrieb von Anwendungen für KI und maschinelles Lernen im Unternehmen. Durch die Zusammenarbeit mit Nvidia erweitert sich der Zugang zum wachsenden Katalog der Nvidia-NIM-Microservices auf das komplette Unternehmen sowie auf Edge-Umgebungen.
Der Betrieb der NIM-Microservices auf der Nutanix-Cloud-Platform wird mittels Standard-Schnittstellen ein KI-Inferencing zu einer grossen Bandbreite an Modellen ermöglichen, heisst es im Communiqué weiter. Dazu gehören Modelle der Open-Source-Community, Modelle der Nvidia AI Foundation und individuell angepasste Modelle. Für den Integration-Support hat Nutanix die Zertifizierung der Softwareplattform Nvidia AI Enterprise 5.0 angekündigt, um Entwicklung und Bereitstellung von KI einschliesslich Nvidia NIM für den Produktivbetrieb zu optimieren. Version 2.0 von Nutanix GPT-in-a-Box wird voraussichtlich in der zweiten Jahreshälfte 2024 erhältlich sein.
(cma)