Forscher der University of California San Diego haben einen Chip-Prototyp entwickelt, der durch piezoelektrische Bauteile die Spannungsversorgung von GPUs grundlegend effizienter gestalten könnte – mit weitreichenden Folgen für den weltweit steigenden Energiehunger moderner Rechenzentren.
Neues Chip-Design soll Energieverbrauch von Rechenzentren deutlich senken
Ingenieure der University of California San Diego haben einen neuartigen Chip entwickelt, der die Energieeffizienz von Rechenzentren erheblich verbessern könnte. Im Mittelpunkt steht eine überarbeitete Methode zur Spannungsumwandlung für Grafikprozessoren, veröffentlicht in der Fachzeitschrift Nature Communications.
Das Problem: Ineffiziente Spannungsumwandlung
Moderne Rechenzentren verteilen Strom typischerweise mit 48 Volt, während GPUs nur zwischen 1 und 5 Volt benötigen. Diese große Spannungsdifferenz stellt herkömmliche DC-DC-Wandler – sogenannte Step-Down-Converter – vor erhebliche technische Herausforderungen.
Je größer der Abstand zwischen Eingangs- und Ausgangsspannung, desto schwieriger wird es, die Umwandlung verlustarm durchzuführen und gleichzeitig ausreichend Strom bereitzustellen.
Konventionelle Lösungen setzen auf magnetische Bauteile, die bei wachsender Leistungsdichte zunehmend an ihre Grenzen stoßen.
Piezoelektrische Komponenten als Lösung
Der neue Ansatz aus San Diego kombiniert schwingende piezoelektrische Bauteile mit einer optimierten Schaltungsarchitektur. Piezoelektrische Materialien erzeugen elektrische Spannung durch mechanische Verformung – umgekehrt können sie durch elektrische Signale in Schwingung versetzt werden.
Dieses Prinzip ermöglicht eine kompaktere und effizientere Bauweise als klassische magnetbasierte Lösungen. Im Labortest erzielte der Prototyp:
- eine hohe Umwandlungseffizienz unter realistischen Rechenzentrum-Bedingungen
- deutlich mehr Leistung als vergleichbare bisherige Ansätze
Hinweis: Konkrete Effizienzwerte nennt die Studie, sind jedoch im derzeitigen Stand der Pressemitteilung nicht vollständig zugänglich.
Einschränkungen und Entwicklungsstand
Der Chip befindet sich noch im Prototypenstadium und ist nach Angaben der Forscher nicht unmittelbar für den breiten Einsatz geeignet. Bis zur Serienreife sind weitere Schritte erforderlich:
- Tests unter industriellen Bedingungen
- Integration in bestehende Rechenzentrums-Infrastrukturen
- Entwicklungspartnerschaften mit der Industrie
Die Veröffentlichung in Nature Communications signalisiert jedoch, dass die Grundlagenforschung einen belastbaren Stand erreicht hat.
Kontext: Wachsender Energiebedarf durch KI-Workloads
Der Energieverbrauch von Rechenzentren steigt weltweit – getrieben vor allem durch rechenintensive KI-Anwendungen und das Training großer Large Language Models. GPUs sind dabei die zentralen Leistungsträger und gleichzeitig die größten Energieverbraucher.
Selbst marginale Effizienzgewinne bei der Spannungsversorgung summieren sich in groß dimensionierten Rechenzentren zu erheblichen Einsparungen – sowohl beim Stromverbrauch als auch bei den Kühlungsanforderungen.
Für deutsche Unternehmen, die eigene KI-Infrastruktur betreiben oder Colocation-Dienste nutzen, ist diese Entwicklung mittelfristig relevant. Angesichts hoher Energiepreise und verschärfter regulatorischer Anforderungen – etwa durch den European Energy Efficiency Act – könnten effizientere Stromversorgungskomponenten sowohl Betriebskosten als auch den ökologischen Fußabdruck spürbar reduzieren.
Wann die Technologie marktreif sein wird, bleibt abzuwarten. Die Forschungsrichtung verdient jedoch Aufmerksamkeit.
Quelle: ScienceDaily AI