Nutanix, realtà specializzata nell’hybrid multicloud computing, annuncia l’ampliamento della sua piattaforma IA con una nuova offerta cloud-native, Nutanix Enterprise AI (NAI), che può essere implementata su qualsiasi piattaforma Kubernetes, all’edge, nei data center e nei cloud pubblici come AWS EKS, Azure AKS e Google GKE.
Distribuire le applicazioni di GenAI da oggi è più semplice
Nutanix Enterprise AI offre un modello operativo ibrido e multicloud uniforme per accelerare i carichi di lavoro IA, permettendo alle aziende di utilizzare i propri modelli e dati in un ambiente sicuro a loro scelta e migliorando il ritorno sull’investimento. Grazie all’integrazione con NVIDIA NIM per ottimizzare le prestazioni dei modelli di base, NAI consente alle aziende di implementare, gestire e scalare in modo sicuro gli endpoint di inferenza per modelli linguistici di grandi dimensioni (LLM) per supportare la distribuzione di applicazioni di IA generativa (GenAI) in pochi minuti, anziché in giorni o settimane.
L’IA generativa è un carico di lavoro intrinsecamente ibrido: le nuove applicazioni sono spesso sviluppate nel cloud pubblico, la messa a punto dei modelli avviene con dati privati su infrastrutture locali, e l’inferenza viene implementata il più vicino possibile alla logica di business, che può trovarsi all’edge, on premise o nel cloud pubblico. Questo flusso di lavoro GenAI ibrido e distribuito può essere sfidante per le aziende in termini di complessità, privacy dei dati, sicurezza e costi.
Nutanix Enterprise AI offre un modello operativo multicloud coerente e un metodo semplice per distribuire, scalare e gestire in sicurezza modelli linguistici di grandi dimensioni (LLM), utilizzando microservizi di inferenza ottimizzati con NVIDIA NIM, oltre a modelli open source forniti da Hugging Face. Ciò permette ai clienti di creare un’infrastruttura GenAI aziendale con la resilienza, le operazioni avanzate e la sicurezza necessarie per le applicazioni critiche per il business, sia in locale che su servizi Kubernetes gestiti come AWS Elastic Kubernetes Service (EKS), Azure Managed Kubernetes Service (AKS) e Google Kubernetes Engine (GKE).
Inoltre, Nutanix Enterprise AI offre un modello di pricing trasparente e prevedibile basato sulle risorse dell’infrastruttura, un aspetto fondamentale per i clienti che desiderano ottimizzare il ritorno dai loro investimenti in soluzioni GenAI. Ciò è in contrasto con i prezzi difficilmente prevedibili basati sull’utilizzo o sui token.
Elementi aggiuntivi inclusi nella piattaforma
Nutanix Enterprise AI è un componente di Nutanix GPT-in-a-Box 2.0. GPT-in-a-Box include anche Nutanix Cloud Infrastructure, Nutanix Kubernetes Platform e Nutanix Unified Storage, insieme a servizi per supportare le esigenze di configurazione e dimensionamento dei clienti per l’addestramento e l’inferenza on premise. Per i clienti che desiderano implementazioni nel cloud pubblico, Nutanix Enterprise AI può essere distribuito in qualsiasi ambiente Kubernetes, ma è operativamente coerente con le implementazioni on premise.
Nutanix Enterprise AI può essere implementato con la piattaforma IA full-stack di NVIDIA ed è certificato per l’utilizzo con la piattaforma software NVIDIA AI Enterprise, inclusa NVIDIA NIM, una gamma di microservizi semplici da utilizzare e progettati per un’implementazione sicura ed affidabile di processi di inferenza dei modelli IA ad alte prestazioni. Nutanix-GPT-in-a-Box ha la certificazione NVIDIA-Certified System, garantendo prestazioni affidabili.
Caratteristiche di Nutanix Enterprise AI
Nutanix Enterprise AI permette ai clienti di:
- Affrontare la carenza di competenze nell’ambito dell’IA. La semplicità, la flessibilità e le funzionalità integrate della piattaforma permettono agli amministratori IT di diventare amministratori dell’IA, semplificando e accelerando il lavoro dei data scientist e degli sviluppatori. Grazie a queste risorse, è possibile adattarsi rapidamente e sfruttare i modelli più avanzati insieme al computing accelerato di NVIDIA.
- Abbattere le barriere alla creazione di una piattaforma AI-ready. Molte aziende che intendono adottare l’IA generativa faticano a creare una piattaforma adeguata per supportare i carichi di lavoro IA, inclusa la necessità di garantire coerenza tra la loro infrastruttura on premise e diversi cloud pubblici. Nutanix Enterprise AI risolve questo problema offrendo un flusso di lavoro intuitivo e semplice, basato su interfaccia utente, che consente ai clienti di implementare e testare endpoint di inferenza LLM in pochi minuti. La soluzione offre inoltre ampia libertà di scelta, con supporto per i microservizi NVIDIA NIM, che funzionano ovunque e garantiscono prestazioni ottimali dei modelli sia in cloud sia on premise. Nutanix Enterprise AI supporta anche Hugging Face e altri standard di modello. Grazie all’integrazione nativa con Nutanix Kubernetes Platform è possibile mantenere l’allineamento con l’intera Nutanix Cloud Platform oppure optare per l’esecuzione su qualsiasi runtime Kubernetes, compresi AWS EKS, Azure AKS o Google Cloud GKE, con il supporto del computing accelerato NVIDIA.
- Ridurre i rischi per la privacy e la sicurezza dei dati. Nutanix Enterprise AI riduce i rischi legati alla privacy e alla sicurezza, permettendo ai clienti di eseguire modelli e dati su risorse di calcolo sotto il loro diretto controllo. La piattaforma offre anche una dashboard intuitiva per la risoluzione dei problemi, l’osservabilità e il monitoraggio delle risorse utilizzate per gli LLM, oltre a controlli di accesso basati sui ruoli (RBAC) che garantiscono un accesso rapido e sicuro agli LLM, mantenendo l’accessibilità sotto controllo. Le aziende con esigenze di sicurezza più stringenti possono inoltre implementare il sistema in ambienti isolati, come air-gapped o dark-site.
- Estendere l’infrastruttura aziendale ai carichi di lavoro GenAI. I clienti che utilizzano Nutanix Cloud Platform per applicazioni business-critical possono ora gestire i carichi di lavoro di intelligenza artificiale generativa con lo stesso livello di resilienza, le stesse operazioni di secondo livello e la stessa sicurezza tipica delle infrastrutture aziendali.
I casi d’uso
I principali casi d’uso per i clienti che sfruttano Nutanix Enterprise AI includono: il miglioramento dell’esperienza dei clienti con GenAI attraverso l’analisi dei feedback e dei documenti dei clienti; l’accelerazione della creazione di codice e contenuti sfruttando i co-pilot e l’elaborazione intelligente dei documenti; l’utilizzo di modelli di fine-tuning su dati specifici del dominio per accelerare la generazione di codice e contenuti; il rafforzamento della sicurezza, compreso l’utilizzo di modelli IA per il rilevamento delle frodi, delle minacce, l’arricchimento degli avvisi e la creazione automatica di policy; il miglioramento delle analisi sfruttando modelli di fine-tuning su dati privati.
Disponibilità di Nutanix Enterprise AI
Nutanix Enterprise AI, in esecuzione on premise, all’edge o nel cloud pubblico, e Nutanix GPT-in-a-Box 2.0 sono già disponibili.
Dichiarazioni
“Nutanix Enterprise AI permette ai nostri clienti di eseguire le applicazioni GenAI in modo semplice e sicuro, sia on-premise che su cloud pubblici. Nutanix Enterprise AI può operare su qualsiasi piattaforma Kubernetes e consente alle applicazioni IA di essere eseguite in un luogo sicuro, con un modello di costo prevedibile”, ha commentato Thomas Cornely, SVP, Product Management, Nutanix.
“I carichi di lavoro di intelligenza artificiale generativa sono intrinsecamente ibridi, con formazione, personalizzazione e inferenza su cloud pubblici, sistemi on premise e all’edge”, ha dichiarato Justin Boitano, vicepresidente di enterprise AI di NVIDIA. “L’integrazione di NVIDIA NIM in Nutanix Enterprise AI fornisce un modello multicloud coerente con API sicure, permettendo ai clienti di implementare l’IA in ambienti diversi con le prestazioni e la sicurezza necessarie per le applicazioni business-critical”.