

only logistic data imported: we have only basic data imported from a supplier, a data-sheet is not yet created by an editor.
creado por HPE: a data-sheet is imported from an official source from a manufacturer. But the data-sheet is not yet standardized by an Icecat editor.
created/standardized by Icecat: the data-sheet is created or standardized by an Icecat editor.
HPE Machine Learning Inference Software puede implementar modelos utilizando una interfaz gráfica intuitiva y escalar implementaciones en función de la carga.
Personaliza el rendimiento con supervisión de modelos, seguimiento de predicciones y estadísticas en tiempo real en la implementación.
Ya sea en un clúster existente de Kubernetes, una nube privada o incluso una nube híbrida, HPE Machine Learning Inference Software ofrece herramientas consistentes en sistemas en continua modernización para satisfacer tus necesidades.
Los gráficos estándares del sector Helm se utilizan para implementar en cualquier plataforma Kubernetes compatible, como OpenShift, Rancher, EKS, AKS o GKS, cualquier nube puede aprovecharse de forma consistente.
HPE Machine Learning Inference Software proporciona un soporte de primera flexible para las GPU de Nvidia con una arquitectura que es fácil de proporcionar soporte en sistemas que se modernizan de forma constante.
Integración con la suite de software NVIDIA AI Enterprise (NVAIE), NVIDIA Inference Microservice (NIM) (que utiliza Triton, TensorRT-LLM), así como con otras técnicas de inferencia de IA que ofrecen un rendimiento mejorado.
Las características de HPE Machine Learning Inference Software ejecutan cargas de trabajo en tu entorno preferido, ya sea la nube, híbrido, local e incluso aislado, lo que permite que los modelos, códigos y datos permanezcan protegidos.
Utiliza controles de acceso basados en roles (RBAC) para autorizar los equipos de desarrollo y MLOps a colaborar y compartir los recursos y artefactos de aprendizaje automático de forma segura.
Protege la implementación de los puntos de conexión con características de seguridad empresarial que requiere autenticación avanzada, entre ellas OIDC y OAuth 2.0, para interactuar con los modelos.
HPE Machine Learning Inference Software ofrece una integración optimizada para grandes modelos de lenguaje (LLM) específicos directamente de Hugging Face y del servidor de inferencia de NVIDIA (NIM), al tiempo que permite el desarrollo de modelos desde la mayoría de marcos.
Logra una mayor flexibilidad al utilizar modelos de distintos marcos como TensorFlow, PyTorch, Scikit-Learn, o XGBoost para acomodar una amplia gama de modelos preentrenados y de clientes.
to access all product specs