

apenas os dados logísticos foram importados: apenas temos dados básicos importados de um fornecedor, ainda não foi criada uma ficha técnica por um editor.
criado por HPE: uma ficha técnica é importada de uma fonte oficial de um fabricante. Mas a ficha técnica ainda não está padronizada por um editor Icecat.
criada/padronizada pela Icecat: a ficha técnica é criada ou padronizada por um editor da Icecat.
O HPE Machine Learning Inference Software implementa modelos usando uma interface gráfica intuitiva e dimensiona implantações com base em carga.
Personalize o desempenho com monitoramento de modelos em tempo real e acompanhe previsões e estatísticas sobre a implantação.
Seja em um cluster do Kubernetes existente, em uma nuvem privada ou em uma nuvem híbrida, o HPE Machine Learning Inference Software fornece ferramentas consistentes em sistemas em constante modernização para atender às suas necessidades.
Gráficos Helm padrão do setor são usados para fazer implantações em qualquer plataforma compatível com Kubernetes, por exemplo, OpenShift, Rancher, EKS, AKS ou GKS. Qualquer nuvem pode ser constantemente aproveitada.
O HPE Machine Learning Inference Software oferece suporte flexível e de alto nível para GPUs Nvidia e conta com arquitetura para adicionar suporte para sistemas em contínua modernização.
A integração com o pacote de software AI Enterprise da NVIDIA (NVAIE), com o NVIDIA Inference Microservice (NIM) (usando Triton, TensorRT-LLM) e com outras técnicas de inferência de IA oferecem desempenho aprimorado.
Os recursos do HPE Machine Learning Inference Software executam cargas de trabalho no ambiente que você preferir, incluindo nuvem, híbrido, no local ou até mesmo air-gapped, o que protege modelos, códigos e dados.
Use controles de acesso baseados em função (RBAC) para autorizar equipes de MLOps e desenvolvimento a colaborar e compartilhar recursos e artefatos de machine learning com segurança.
Proteja os pontos de extremidade de implantação com recursos de segurança de classe empresarial que exigem autenticação avançada, incluindo OIDC e OAuth 2.0, para interagir com os modelos.
O HPE Machine Learning Inference Software oferece integração simplificada para grandes modelos de linguagem (LLMs) diretamente do Hugging Face e do Servidor de inferência da NVIDIA (NIM) ao mesmo tempo em que permite o desenvolvimento de modelos da maioria das estruturas.
Obtenha mais flexibilidade usando modelos de várias estruturas, como TensorFlow, PyTorch, Scikit-Learn e XGBoost para acomodar uma ampla gama de modelos de clientes e previamente treinados.
para aceder a todas as especificações de produtos