AMD steigert die Energieeffizienz von KI-Servern um das 38-fache
Auf der Veranstaltung Advancing AI gab AMD bekannt, dass das Unternehmen sein ehrgeiziges Ziel erreicht habe, Verbesserung der Energieeffizienz von KI- und HPC-Knoten bis 30 um das 2025-facheDarüber hinaus stellte sich heraus, dass die Zahl sogar noch höher war als erwartet: Die Verbesserung betrug von 38 bis 2020 das 2025-fache, was einen großen technologischen Durchbruch in der Architektur und im Design von Rechenzentrumslösungen darstellt.
Laut der offiziellen Tabelle hat AMD sowohl unsere eigenen Prognosen als auch die durchschnittliche Entwicklungsrate der Brancheund übertraf damit die Konkurrenz deutlich. Möglich wurde dies durch einen umfassenden Ansatz: verbesserte CPU, GPU, Speichermodule, Netzwerkkomponenten und Software.
Jetzt geht AMD zur nächsten Stufe über – der Optimierung Rack-Scale-Systeme als Ganzes, einschließlich aller Geräte im Server-Rack. Das Ziel ist Verbesserung der Energieeffizienz von KI-Training und -Inferenz um das 20-fache bis 2030 im Vergleich zu 2024Dadurch wird der Energieverbrauch um 95 % und die Anzahl der Racks von 275 auf eins reduziert.