Skalierbare KI/ML-Infrastrukturen
89,90 €*
Sofort verfügbar, Lieferzeit: 1-3 Tage
Produktnummer:
9783836273930
Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen. Betrachtet wird der ganze Infrastruktur-Stack: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.Aus dem Inhalt:KI/ML: Grundlagen und Use CasesInfrastruktur planen: On-Premises, Cloud oder Hybrid?Technischer Background: KI/ML mit NVIDIA-GPUsGPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPUNVIDIA-GPUs auf vSphere On-Prem implementierenNVIDIA AI EnterpriseKI/ML-Cluster mit Kubernetes und OpenShiftGPU-spezifische OperatorenGPU-Cluster mit OpenShiftVon CI/CD über GitOps zu MLOpsML-Pipelines & AI End-to-End
Autor: | Liebel, Oliver |
---|---|
EAN: | 9783836273930 |
Sprache: | Deutsch |
Seitenzahl: | 468 |
Produktart: | Gebunden |
Verlag: | Rheinwerk Computing Rheinwerk Verlag |
Veröffentlichungsdatum: | 27.12.2022 |
Untertitel: | NVIDIA-GPUs in Container-Systemen - Expertenwissen zur Evaluierung, Automatisierung und für die Praxis |
Schlagworte: | VMware vSphere |
Größe: | 244 × 198 × 30 |
Gewicht: | 1138 g |