Hewlett Packard Enterprise (HPE) hat eine Supercomputing-Lösung für generative KI angekündigt, die für große Unternehmen, Forschungseinrichtungen und Regierungsorganisationen konzipiert ist. Diese Lösung soll diesen Unternehmen dabei helfen, das Training und die Abstimmung von Modellen der künstlichen Intelligenz (KI) mithilfe privater Datensätze zu beschleunigen.
Diese Lösung umfasst eine Software-Suite, die es Kunden ermöglicht, Modelle zu trainieren und zu optimieren und KI-Anwendungen zu entwickeln. Die Lösung umfasst außerdem flüssigkeitsgekühlte Supercomputer, beschleunigte Rechenleistung, Netzwerke, Speicher und Dienste, um Unternehmen dabei zu helfen, KI-Werte schneller zu erschließen.
„Die weltweit führenden Unternehmen und Forschungszentren trainieren und optimieren KI-Modelle, um Innovationen voranzutreiben und Durchbrüche in der Forschung zu ermöglichen. Um dies jedoch effektiv und effizient zu erreichen, benötigen sie speziell entwickelte Lösungen“, sagte Justin Hotard, Executive Vice President und General Manager. HPC, KI und Labore bei Hewlett Packard Enterprise.
„Um generative KI zu unterstützen, müssen Unternehmen Lösungen nutzen, die nachhaltig sind und die dedizierte Leistung und Skalierbarkeit eines Supercomputers bieten, um das Training von KI-Modellen zu unterstützen. Wir freuen uns, unsere Zusammenarbeit mit Nvidia auszubauen, um eine schlüsselfertige KI-native Lösung anzubieten, die unseren Kunden dabei helfen wird, das Training und die Ergebnisse von KI-Modellen deutlich zu beschleunigen“, fügte Hotard hinzu.
Zu den Schlüsselkomponenten dieser Supercomputing-Lösung für generative KI gehören Softwaretools zum Erstellen von KI-Anwendungen, zum Anpassen vorgefertigter Modelle sowie zum Entwickeln und Ändern von Code.
Die Software ist in die HPE Cray Supercomputing-Technologie integriert, die auf derselben leistungsstarken Architektur basiert, die auch im schnellsten Supercomputer der Welt verwendet wird und von Nvidia Grace Hopper GH200 Superchips angetrieben wird.
Zusammen bietet diese Lösung Unternehmen die Leistung, die sie für große KI-Arbeitslasten benötigen, wie z. B. LLM-Training (Large Language Model) und DLRM-Training (Deep Learning Recommendation Model).
„Generative KI verändert jedes industrielle und wissenschaftliche Unterfangen“, sagte Ian Buck, Vizepräsident für Hyperscale und HPC bei Nvidia.
„Nvidias Zusammenarbeit mit HPE bei dieser schlüsselfertigen KI-Trainings- und Simulationslösung, die auf Nvidia GH200 Grace Hopper Superchips basiert, wird Kunden die Leistung bieten, die sie benötigen, um Durchbrüche bei ihren generativen KI-Initiativen zu erzielen“, fügte Buck hinzu.
Verfügbarkeit
Die Supercomputing-Lösung für generative KI wird ab Dezember über HPE in mehr als 30 Ländern allgemein verfügbar sein.
Diese Lösung umfasst eine Software-Suite, die es Kunden ermöglicht, Modelle zu trainieren und zu optimieren und KI-Anwendungen zu entwickeln. Die Lösung umfasst außerdem flüssigkeitsgekühlte Supercomputer, beschleunigte Rechenleistung, Netzwerke, Speicher und Dienste, um Unternehmen dabei zu helfen, KI-Werte schneller zu erschließen.
„Die weltweit führenden Unternehmen und Forschungszentren trainieren und optimieren KI-Modelle, um Innovationen voranzutreiben und Durchbrüche in der Forschung zu ermöglichen. Um dies jedoch effektiv und effizient zu erreichen, benötigen sie speziell entwickelte Lösungen“, sagte Justin Hotard, Executive Vice President und General Manager. HPC, KI und Labore bei Hewlett Packard Enterprise.
„Um generative KI zu unterstützen, müssen Unternehmen Lösungen nutzen, die nachhaltig sind und die dedizierte Leistung und Skalierbarkeit eines Supercomputers bieten, um das Training von KI-Modellen zu unterstützen. Wir freuen uns, unsere Zusammenarbeit mit Nvidia auszubauen, um eine schlüsselfertige KI-native Lösung anzubieten, die unseren Kunden dabei helfen wird, das Training und die Ergebnisse von KI-Modellen deutlich zu beschleunigen“, fügte Hotard hinzu.
Zu den Schlüsselkomponenten dieser Supercomputing-Lösung für generative KI gehören Softwaretools zum Erstellen von KI-Anwendungen, zum Anpassen vorgefertigter Modelle sowie zum Entwickeln und Ändern von Code.
Die Software ist in die HPE Cray Supercomputing-Technologie integriert, die auf derselben leistungsstarken Architektur basiert, die auch im schnellsten Supercomputer der Welt verwendet wird und von Nvidia Grace Hopper GH200 Superchips angetrieben wird.
Zusammen bietet diese Lösung Unternehmen die Leistung, die sie für große KI-Arbeitslasten benötigen, wie z. B. LLM-Training (Large Language Model) und DLRM-Training (Deep Learning Recommendation Model).
„Generative KI verändert jedes industrielle und wissenschaftliche Unterfangen“, sagte Ian Buck, Vizepräsident für Hyperscale und HPC bei Nvidia.
„Nvidias Zusammenarbeit mit HPE bei dieser schlüsselfertigen KI-Trainings- und Simulationslösung, die auf Nvidia GH200 Grace Hopper Superchips basiert, wird Kunden die Leistung bieten, die sie benötigen, um Durchbrüche bei ihren generativen KI-Initiativen zu erzielen“, fügte Buck hinzu.
Verfügbarkeit
Die Supercomputing-Lösung für generative KI wird ab Dezember über HPE in mehr als 30 Ländern allgemein verfügbar sein.