Ionos, Anbieter für Cloud- und Hosting-Services, erweitert sein Produktportfolio um dedizierte Server mit Nvidia-GPUs, wie man sie für Aufgaben aus dem Bereich KI/ML (künstliche Intelligenz, maschinelles Lernen) benötigt. Damit müssen Anwenderunternehmen für den Bezug von KI-Rechenleistung auf Abruf nicht auf Angebote US-amerikanischer Cloud-Provider zurückgreifen.
Die Server nutzen Nvidias „Tesla T4 Tensor Core“-GPU. Diese bauen auf Nvidias Turing-Architektur auf und nutzen die mathematische Technik des Multiprecision Computings für genauere Ergebnisse arithmetischer Operationen, zum Beispiel bei der KI-Inferenz (also bei den selbstständigen Schlussfolgerungen einer KI auf Basis des KI-Trainings). Als CPU kommt AMDs Epyc zum Einsatz.
GPUs sind aufgrund ihrer Prozessorarchitektur dafür ausgelegt, mehrere Prozesse parallel durchzuführen, und eignen sich damit besser für Aufgaben wie etwa das ML-Modelltraining als normale CPUs. Server mit Nvidia Grafikprozessoren sind daher, wie Ionos hervorhebt, ideal für Szenarien, in denen Anwender große oder komplexe Datenmengen besonders schnell verarbeiten oder etwas in 3D visualisieren müssen. Beispiele hierfür sind Deep Learning, KI-Anwendungen, Big-Data-Analysen oder das Rendering im Bereich VFX (Virtual Effects) oder 3D-Design.
Zum Start des Angebots steht Anwenderunternehmen nach Ionos-Angaben folgende Konfiguration zur Verfügung:
Dafür berechnet Ionos 0,6806 Euro/Stunde (maximal 490 Euro/Monat). Das Angebot werde minutengenau abgerechnet und sei aufgrund des Server-Standorts Deutschland DSGVO-konform, betont der Karlsruher Provider. Das Angebot ist ab sofort erhältlich.