

solo se ha importado información logística: Solamente contamos con información básica importada desde el fabricante, la ficha técnica no ha sido creada todavía por un editor.
creado por HPE: la ficha técnica ha sido importada desde una fuente oficial del fabricante, pero no ha sido estandarizada todavía por ningún editot de Icecat.
creada/estandarizada por icecat: la ficha técnica ha sido creada o estandarizaa por un editor de Icecat.
HPE Machine Learning Inference Software puede implementar modelos utilizando una interfaz gráfica intuitiva y escalar implementaciones en función de la carga.
Personaliza el rendimiento con supervisión de modelos, seguimiento de predicciones y estadísticas en tiempo real en la implementación.
Ya sea en un clúster existente de Kubernetes, una nube privada o incluso una nube híbrida, HPE Machine Learning Inference Software ofrece herramientas consistentes en sistemas en continua modernización para satisfacer tus necesidades.
Los gráficos estándares del sector Helm se utilizan para implementar en cualquier plataforma Kubernetes compatible, como OpenShift, Rancher, EKS, AKS o GKS, cualquier nube puede aprovecharse de forma consistente.
HPE Machine Learning Inference Software proporciona un soporte de primera flexible para las GPU de Nvidia con una arquitectura que es fácil de proporcionar soporte en sistemas que se modernizan de forma constante.
Integración con la suite de software NVIDIA AI Enterprise (NVAIE), NVIDIA Inference Microservice (NIM) (que utiliza Triton, TensorRT-LLM), así como con otras técnicas de inferencia de IA que ofrecen un rendimiento mejorado.
Las características de HPE Machine Learning Inference Software ejecutan cargas de trabajo en tu entorno preferido, ya sea la nube, híbrido, local e incluso aislado, lo que permite que los modelos, códigos y datos permanezcan protegidos.
Utiliza controles de acceso basados en roles (RBAC) para autorizar los equipos de desarrollo y MLOps a colaborar y compartir los recursos y artefactos de aprendizaje automático de forma segura.
Protege la implementación de los puntos de conexión con características de seguridad empresarial que requiere autenticación avanzada, entre ellas OIDC y OAuth 2.0, para interactuar con los modelos.
HPE Machine Learning Inference Software ofrece una integración optimizada para grandes modelos de lenguaje (LLM) específicos directamente de Hugging Face y del servidor de inferencia de NVIDIA (NIM), al tiempo que permite el desarrollo de modelos desde la mayoría de marcos.
Logra una mayor flexibilidad al utilizar modelos de distintos marcos como TensorFlow, PyTorch, Scikit-Learn, o XGBoost para acomodar una amplia gama de modelos preentrenados y de clientes.
to access all product specs