HPE Machine Learning Inference Software Base 1-year E-RTU

Bénéfices produit
  • Déploiement prévisible, fiable, sécurisé et supervisé dans différents environnements
    HPE Machine Learning Inference Software permet de déployer des modèles à l’aide d’une interface graphique intuitive et de les implémenter à grande échelle en fonction de la charge.
    Personnalisez les performances grâce à une surveillance en temps réel des modèles, et suivez les prédictions et les statistiques liées au déploiement.
    Que vous utilisiez un cluster Kubernetes existant, un cloud privé ou même un cloud hybride, HPE Machine Learning Inference Software offre des outils cohérents pour répondre à vos besoins dans des environnements en constante évolution.
    Les charts Helm aux normes de l’industrie sont utilisés pour le déploiement sur n’importe quelle plateforme compatible avec Kubernetes, comme OpenShift, Rancher, EKS, AKS ou GKS. Vous pouvez exploiter n’importe quel cloud.
  • Prise en charge intégrée des modèles et des outils NVIDIA
    HPE Machine Learning Inference Software offre une prise en charge flexible et efficace des GPU Nvidia, avec une architecture évolutive pour s’adapter aux systèmes en constante évolution.
    L’intégration avec la suite logicielle AI Enterprise (NVAIE) de NVIDIA, les microservices d’inférence NVIDIA (NIM) (utilisant Triton, TensorRT-LLM) et d’autres techniques d’inférence IA permet d’obtenir de meilleures performances.
  • Sécurité professionnelle intégrée
    HPE Machine Learning Inference Software permet d’exécuter vos charges de travail dans l’environnement de votre choix (cloud, infrastructure hybride, sur site, ou environnements isolés). Vos modèles, votre code et vos données restent ainsi toujours protégés.
    Utilisez des contrôles d’accès en fonction du rôle (RBAC) pour autoriser de manière sécurisée la collaboration et le partage des ressources et des artefacts d’apprentissage automatique entre les équipes de développement et de MLOps.
    Sécurisez les terminaux de déploiement grâce à des fonctionnalités de sécurité professionnelles qui requièrent une authentification avancée, notamment avec OIDC et OAuth 2.0, pour interagir avec les modèles.
  • Compatibilité étendue avec différents types de modèles
    HPE Machine Learning Inference Software garantit une intégration fluide avec les grands modèles de langage (LLM) spécifiques provenant directement de Hugging Face et du serveur d’inférence Nvidia (NIM), tout en facilitant le développement de modèles à partir de la plupart des infrastructures disponibles.
    Optimisez votre flexibilité en utilisant des modèles provenant de diverses infrastructures telles que TensorFlow, PyTorch, Scikit-Learn et XGBoost, afin de prendre en charge un large éventail de modèles pré-formés et personnalisables.