Neudefinition der Datenspeicherung
Huawei präsentiert mit dem OceanStor A800 Storagelösung für das KI-Zeitalter
Berlin (ots) - Huawei Technologies hat auf dem diesjährigen Huawei Innovative
Data Infrastructure Forum in Berlin, den hochleistungsfähigen OceanStor A800
vorgestellt, der eine leistungsstarke Ergänzung zu den Speichermodellen der
OceanStor A-Serie von Huawei darstellt.
Der auf KI-Anforderungen zugeschnittene Speicher kann die Auslastung von
KI-Clustern um 30 Prozent steigern. Er bietet er eine hohe Bandbreite und IOPS,
die vier- und achtmal über den Marktstandart liegen. OceanStor A800 unterstützt
die Skalierung auf EB-Level mit bis zu 512 Controllern sowie auf maximal 4.096
Rechenkarten. Dabei erreicht er eine hervorragende Speicherdichte von 1 PB/U und
eine Energieeffizienz von 0,7 Watt/TB. Außerdem bietet der Speicher mit
Vektorindex, Tensordaten und RAG ein neues Datenparadigma. Die Genauigkeit der
Ransomware-Erkennung ist von 99,9 Prozent auf 99,99 Prozent gestiegen. Darüber
hinaus erleichtert die Data-Fabric-Funktion die Verwaltung von Datenbeständen.
Data Infrastructure Forum in Berlin, den hochleistungsfähigen OceanStor A800
vorgestellt, der eine leistungsstarke Ergänzung zu den Speichermodellen der
OceanStor A-Serie von Huawei darstellt.
Der auf KI-Anforderungen zugeschnittene Speicher kann die Auslastung von
KI-Clustern um 30 Prozent steigern. Er bietet er eine hohe Bandbreite und IOPS,
die vier- und achtmal über den Marktstandart liegen. OceanStor A800 unterstützt
die Skalierung auf EB-Level mit bis zu 512 Controllern sowie auf maximal 4.096
Rechenkarten. Dabei erreicht er eine hervorragende Speicherdichte von 1 PB/U und
eine Energieeffizienz von 0,7 Watt/TB. Außerdem bietet der Speicher mit
Vektorindex, Tensordaten und RAG ein neues Datenparadigma. Die Genauigkeit der
Ransomware-Erkennung ist von 99,9 Prozent auf 99,99 Prozent gestiegen. Darüber
hinaus erleichtert die Data-Fabric-Funktion die Verwaltung von Datenbeständen.
Seit den 1990er Jahren haben sich Unternehmensanwendungen von einzelnen Hosts,
Datenbanken, Virtualisierung und Dateifreigabe zu Big Data und High Performance
Data Analytics (HPDA) weiterentwickelt. Diese Entwicklung hat zu einer
Verlagerung der Datenspeichertechnologien von DAS (Direct Attached Storege), SAN
(Storage Area Network) und NAS (Network Attached Storage) hin zu
unstrukturierten Datenspeichern geführt. Mit dem Aufstieg der generativen KI ist
die Nachfrage nach robusten Datenspeicherlösungen in der heutigen
Technologielandschaft wichtiger denn je.
So ist die Cluster-Größe für das Training großer KI-Modelle auf Zehntausende und
sogar Hunderttausende von GPUs (Graphics Processor Unit) angewachsen. Diese
Expansion hat häufigeren Cluster-Fehlern und Trainingsunterbrechungen zur Folge.
Der langwierige Prozess des wiederholten Schreibens von Checkpoint-Daten und der
Wiederaufnahme des Trainings führt zu längeren Leerlaufzeiten der GPUs, wodurch
die Cluster-Auslastung auf unter 50 Prozent sinkt. Darüber hinaus erwarten
Expert:innen, dass der Stromverbrauch der globalen Rechenzentren bis 2026 das
2,3-fache des Wertes von 2022 erreichen wird und dem jährlichen Stromverbrauch
Japans entspricht. Mehr als die Hälfte des Stroms in Rechenzentren wird dann von
KI verbraucht.
KI wird die herkömmliche Datenspeicherung verändern, indem es sich nicht nur auf
Leistung, Zuverlässigkeit und Datenparadigma konzentriert, sondern auch auf
Skalierbarkeit, Nachhaltigkeit und Datenstruktur. In der beginnenden "Ära des
Datenbanken, Virtualisierung und Dateifreigabe zu Big Data und High Performance
Data Analytics (HPDA) weiterentwickelt. Diese Entwicklung hat zu einer
Verlagerung der Datenspeichertechnologien von DAS (Direct Attached Storege), SAN
(Storage Area Network) und NAS (Network Attached Storage) hin zu
unstrukturierten Datenspeichern geführt. Mit dem Aufstieg der generativen KI ist
die Nachfrage nach robusten Datenspeicherlösungen in der heutigen
Technologielandschaft wichtiger denn je.
So ist die Cluster-Größe für das Training großer KI-Modelle auf Zehntausende und
sogar Hunderttausende von GPUs (Graphics Processor Unit) angewachsen. Diese
Expansion hat häufigeren Cluster-Fehlern und Trainingsunterbrechungen zur Folge.
Der langwierige Prozess des wiederholten Schreibens von Checkpoint-Daten und der
Wiederaufnahme des Trainings führt zu längeren Leerlaufzeiten der GPUs, wodurch
die Cluster-Auslastung auf unter 50 Prozent sinkt. Darüber hinaus erwarten
Expert:innen, dass der Stromverbrauch der globalen Rechenzentren bis 2026 das
2,3-fache des Wertes von 2022 erreichen wird und dem jährlichen Stromverbrauch
Japans entspricht. Mehr als die Hälfte des Stroms in Rechenzentren wird dann von
KI verbraucht.
KI wird die herkömmliche Datenspeicherung verändern, indem es sich nicht nur auf
Leistung, Zuverlässigkeit und Datenparadigma konzentriert, sondern auch auf
Skalierbarkeit, Nachhaltigkeit und Datenstruktur. In der beginnenden "Ära des