

importati solo i dati logistici: Disponiamo solamente di dati di base importati dal fornitore, la scheda tecnica non è ancora stata creata da un editore.
creato da HPE: La scheda tecnica è importata da una fonte ufficiale del produttore. Ma la scheda tecnica non è ancora standardizzata da un editore di Icecat.
creato/standardizzato da Icecat: La scheda tecnica è creata o standardizzata da un editore di Icecat.
HPE Machine Learning Inference Software è in grado di sviluppare modelli utilizzando un’interfaccia grafica intuitiva e di scalare le distribuzioni in base al carico.
Personalizza le prestazioni con il monitoraggio in tempo reale dei modelli e traccia previsioni e statistiche sull'implementazione.
In un cluster Kubernetes preesistente, un cloud privato o persino in un cloud ibrido, HPE Machine Learning Inference Software fornisce comunque tool uniformi ai sistemi in continua modernizzazione per soddisfare le tue esigenze.
I grafici Helm standard di settore vengono utilizzati per la distribuzione su piattaforme compatibili con Kubernetes, ad esempio OpenShift, Rancher, EKS, AKS o GKS, in cui ogni tipologia di cloud può essere utilizzata in modo sempre impeccabile.
HPE Machine Learning Inference Software offre supporto flessibile e di alto livello per le GPU Nvidia, con un’architettura che consente di aggiungere facilmente il supporto per sistemi in continua modernizzazione.
L’integrazione con la suite software di NVIDIA AI Enterprise (NVAIE), NVIDIA Inference Microservice (NIM) (che utilizza Triton, TensorRT-LLM) e altre tecniche di inferenza AI offre prestazioni avanzate.
In base alle sue caratteristiche, HPE Machine Learning Inference Software esegue i carichi di lavoro nel tuo ambiente di preferenza, inclusi cloud, ambiente ibrido, on-premise e persino air gap, garantendo quindi la protezione costante di modelli, codice e dati.
Utilizza il controllo degli accessi in base al ruolo (Role-Based Access Controls, RBAC) per autorizzare lo sviluppo e i team MLOps a collaborare e condividere in tutta sicurezza le risorse e gli artefatti ML.
Proteggi gli endpoint di distribuzione con le funzionalità di sicurezza di livello enterprise che richiedono autenticazione avanzata, tra cui OIDC e OAuth 2.0, per interagire con i modelli.
HPE Machine Learning Inference Software offre integrazione semplificata per LLM (Large Language Model) specifici direttamente da Hugging Face e NVIDIA Inference Server (NIM), supportando al contempo lo sviluppo dei modelli dalla maggior parte dei framework.
Ottieni una maggiore flessibilità utilizzando i modelli con framework eterogenei come TensorFlow, PyTorch, Scikit-Learn e XGBoost, a supporto di un’ampia gamma di modelli preaddestrati ad uso dei clienti.
per accedere a tutte le specifiche prodotto