

données de base: Seules les informations de base du produit ont été importées (identifiants produit), la fiche produit n'a pas encore été décrite par un éditeur.
creé par HPE: La fiche produit a été importée directement auprès du fabricant mais n'a pas encore été standardisée par un éditeur Icecat.
créée par Icecat: La fiche a été renseignée et standardisée par un éditeur Icecat.
HPE Machine Learning Inference Software permet de déployer des modèles à l’aide d’une interface graphique intuitive et de les implémenter à grande échelle en fonction de la charge.
Personnalisez les performances grâce à une surveillance en temps réel des modèles, et suivez les prédictions et les statistiques liées au déploiement.
Que vous utilisiez un cluster Kubernetes existant, un cloud privé ou même un cloud hybride, HPE Machine Learning Inference Software offre des outils cohérents pour répondre à vos besoins dans des environnements en constante évolution.
Les charts Helm aux normes de l’industrie sont utilisés pour le déploiement sur n’importe quelle plateforme compatible avec Kubernetes, comme OpenShift, Rancher, EKS, AKS ou GKS. Vous pouvez exploiter n’importe quel cloud.
HPE Machine Learning Inference Software offre une prise en charge flexible et efficace des GPU Nvidia, avec une architecture évolutive pour s’adapter aux systèmes en constante évolution.
L’intégration avec la suite logicielle AI Enterprise (NVAIE) de NVIDIA, les microservices d’inférence NVIDIA (NIM) (utilisant Triton, TensorRT-LLM) et d’autres techniques d’inférence IA permet d’obtenir de meilleures performances.
HPE Machine Learning Inference Software permet d’exécuter vos charges de travail dans l’environnement de votre choix (cloud, infrastructure hybride, sur site, ou environnements isolés). Vos modèles, votre code et vos données restent ainsi toujours protégés.
Utilisez des contrôles d’accès en fonction du rôle (RBAC) pour autoriser de manière sécurisée la collaboration et le partage des ressources et des artefacts d’apprentissage automatique entre les équipes de développement et de MLOps.
Sécurisez les terminaux de déploiement grâce à des fonctionnalités de sécurité professionnelles qui requièrent une authentification avancée, notamment avec OIDC et OAuth 2.0, pour interagir avec les modèles.
HPE Machine Learning Inference Software garantit une intégration fluide avec les grands modèles de langage (LLM) spécifiques provenant directement de Hugging Face et du serveur d’inférence Nvidia (NIM), tout en facilitant le développement de modèles à partir de la plupart des infrastructures disponibles.
Optimisez votre flexibilité en utilisant des modèles provenant de diverses infrastructures telles que TensorFlow, PyTorch, Scikit-Learn et XGBoost, afin de prendre en charge un large éventail de modèles pré-formés et personnalisables.
to access all product specs