- ブランド : HPE
- 製品名 : Machine Learning Inference Software Base 3年間E-RTU
- 商品型番 : S3R06AAE
- カテゴリー : 保証/サポート延長
- データシートの品質 : Icecatによるデータシート確認及び標準化
- 閲覧回数 : 510
- データシート更新日 : 05 Aug 2025 02:43:18
-
多様な環境に対する予測可能で信頼性が高く、保護されて監視された展開HPE Machine Learning Inference Softwareでは、直感的なグラフィカルインターフェイスを使用してモデルを展開し、負荷に基づいて展開をスケーリングできます。
モデルのリアルタイムモニタリングによりパフォーマンスをカスタマイズし、展開に関する予測および統計情報を追跡できます。
既存のKubernetesクラスター、プライベートクラウド、ハイブリッドクラウドのどの環境であっても、HPE Machine Learning Inference Softwareは継続的にモダナイズされるシステム全体でユーザーのニーズに合うように一貫性のあるツールを提供します。
業界標準のHelmチャートを使用してKubernetes互換プラットフォーム (OpenShift、Rancher、EKS、AKS、GKSなど) に展開されるため、整合性を保ちながらどのクラウドでも活用できます。 -
NVIDIAのモデルおよびツールに対するすぐに使えるサポートHPE Machine Learning Inference Softwareでは、継続的にモダナイズされるシステムに対するサポートを容易に追加できるアーキテクチャーにより、NVIDIA GPUに対する柔軟性に優れた最高クラスのサポートが提供されます。
NVIDIA AI Enterprise (NVAIE) ソフトウェアスイート、NVIDIA Inference Microservice (NIM) (Triton、TensorRT-LLMを利用)、および他のAI推論手法との統合により、パフォーマンスが向上します。 -
組み込みのエンタープライズクラスのセキュリティHPE Machine Learning Inference Softwareの機能は、クラウド、ハイブリッド、オンプレミスなど、ユーザーの好みの環境で実行でき、隔離された環境でも実行できるため、モデル、コード、データが保護されている状態を保つこともできます。
ロールベースのアクセス管理 (RBAC) を使用して、MLのリソースおよびアーティファクトをセキュアに共同作業および共有する権限が開発チームとMLOpsチームに与えられます。
モデルとのやり取りには高度な認証 (OIDC、OAuth 2.0など) を必要とするエンタープライズクラスのセキュリティ機能により、展開のエンドポイントが保護されます。 -
広範なモデル互換性HPE Machine Learning Inference Softwareでは、大部分のフレームワークからのモデルの開発を可能にしたままで、特定の大規模言語モデル (LLM) に対する合理化された統合が、Hugging FaceおよびNVIDIA Inference Server (NIM) から直接提供されます。
幅広い事前学習済みモデルやカスタマーモデルに対応する、TensorFlow、PyTorch、scikit-learn、XGBoostなどの多様なフレームワークからのモデルを使用して柔軟性の向上を実現できます。