

물류데이터만 불러와졌습니다.: 공급자로부터 기본 데이터만 제공되었습니다. 아직 데이터시트가 생성되지 않았습니다.
created by HPE: 데이터시트는 제조사의 공식 소스로 부터 불러와집니다. 이 데이터시트는 Icecat 에디터에서 표준화 됩니다.
Icecat에 의해 생성/표준화됨: 데이터시트는 Icecat 에디터를 사용하여 생성되었거나 수정되었습니다.
HPE Machine Learning Inference Software는 직관적인 그래픽 인터페이스를 사용하여 모델을 구축하고 로드에 따라 구축을 조정할 수 있습니다.
모델에 대한 실시간 모니터링으로 성능을 사용자 정의하고 구축과 관련된 예측 및 통계를 추적하세요.
기존 Kubernetes 클러스터, 프라이빗 클라우드 또는 심지어 하이브리드 클라우드에서든 HPE Machine Learning Inference Software는 지속적으로 고도화되는 시스템 전반에서 일관된 툴을 제공하여 사용자 요구 사항을 충족합니다.
업계 표준 Helm 차트를 사용하여 Kubernetes와 호환되는 OpenShift, Rancher, EKS, AKS, GKS 등의 모든 플랫폼에 구축하므로 모든 클라우드를 일관되게 활용할 수 있습니다.
HPE Machine Learning Inference Software는 지속적으로 고도화되는 시스템에 대한 지원을 쉽게 추가하는 아키텍처를 통해 Nvidia GPU에 대한 최고 수준의 유연한 지원을 제공합니다.
NVIDIA의 AI Enterprise(NVAIE) 소프트웨어 제품군, NVIDIA Inference Microservice(NIM)(Triton, TensorRT-LLM 활용) 및 기타 AI 추론 기술과 통합되어 향상된 성능을 제공합니다.
HPE Machine Learning Inference Software 기능은 클라우드, 하이브리드, 온프레미스 또는 심지어 에어 갭을 포함한 사용자가 선호하는 환경에서 워크로드를 실행하여 모델, 코드 및 데이터를 보호된 상태로 유지할 수 있습니다.
역할 기반 접근제어(RBAC)를 통해 구축 및 MLOps 팀에 권한을 부여하여 ML 리소스 및 아티팩트를 안전하게 협업하고 공유할 수 있도록 지원하세요.
모델과 상호 작용하기 위해서는 OIDC 및 OAuth 2.0을 비롯한 고급 인증이 필요한 엔터프라이즈급 보안 기능을 통해 구축 엔드포인트를 보호하세요.
HPE Machine Learning Inference Software는 Hugging Face 및 NIM(NVIDIA Inference Server)에서 직접 특정 LLM(대규모 언어 모델)을 위한 통합을 간소화하는 한편 대다수 프레임워크의 모델 개발을 지원합니다.
TensorFlow, PyTorch, Scikit-Learn, XGBoost 등 다양한 프레임워크의 모델을 사용하여 광범위한 사전 훈련된 모델과 고객 모델을 수용하기 위한 유연성을 향상하세요.
to access all product specs