Anzeige Der Chipauftragsfertiger TSMC will bei der Produktion schneller Rechenbeschleuniger für KI-Algorithmen und High-Performance-Computing (HPC) voranschreiten. Schon in den nächsten Jahren soll die Komplexität erheblich steigen. Mit dabei: übereinander gestapelte Logikchips, optische Transceiver und im Interposer integrierte Stromversorgungstechnik. Bisher bestehen GPUs wie die von AMD und Nvidia aus mehreren Chiplets, die sich nebeneinander auf einem Silizium-Interposer befinden. Schnelle Speicherbausteine vom Typ High-Bandwidth Memory (HBM) flankieren die Logik-Dies auf demselben Interposer. Hersteller nennen das 2,5D-Stacking. Ein Interposer ist bisher häufig notwendig, um die vielen Tausend Datenpfade zwischen den Logik-Chiplets und dem HBM auszuführen. Ein alternativer Weg zur Verbindung von je zwei Chiplets auf einem Träger sind kleine Brücken-Dies aus Silizium, die unterhalb der Chiplets im Träger eingebettet sind. Das nennt Intel Embedded Multi-Die Interconnect Bridge (EMIB). Neue Chiptechnik im Interposer Insbesondere der Interposer soll künftig komplexer werden. Anstelle einer reinen Siliziumvariante tritt ein sogenannter Redistribution Layer (RDL). Darin befinden sich vereinzelt Siliziumflächen, die zahlreiche Datenpfade lokal zwischen zwei Chiplets bereitstellen, analog zu Intels EMIB. TSMC nennt das Local Silicon Interconnect (LSI). Außerdem integriert TSMC künftig aber auch Power-Management-Schaltungen (PMICs), Spulen und Kondensatoren (Embedded Deep Trench Capacitor, eDTC) direkt in den Interposer. Weitere Kondensatoren wandern auf den RDL. Schon heute nehmen die schnellsten KI-Beschleuniger mehr als ein Kilowatt auf, Nvidias B200 etwa 1200 Watt. Bis 2030 soll die elektrische Leistungsaufnahme auf ein Vielfaches steigen. Laut TSMC erfordert das, dass Teile der Stromversorgung direkt in die Chipkonstrukte eingebaut werden (Integrated Voltage Regulation, IVR). Die Idee ist nicht grundsätzlich neu, FIVR nutzte Intel schon vor 11 Jahren. Queraufbau, wie sich TSMC Interposer-Technik bei künftigen KI-Beschleunigern vorstellt. (Bild: Taiwan Semiconductor Manufacturing Co., Ltd.) Mehr Stapel Anzeige Logikchips will der Hersteller künftig übereinanderstapeln. Das könnten etwa Compute-Chiplets mit Rechenwerken und I/O-Dies mit Speicher- und PCIe-Controllern sein oder mehrere Compute-Chiplets. Als Beispiele nennt TSMC Kombinationen aus den Fertigungsprozessen A14 und N2, generell sind aber alle möglichen Prozessvarianten denkbar. Schnelle Speicherbausteine favorisiert TSMC weiter neben den Logikchips, sie ließen sich grundsätzlich aber auch stapeln. Bisher macht das AMD bei seinen CPUs mit Cache-Dies. Bild 1 von 2 Aufbau aktueller und neuer Rechenbeschleuniger (2 Bilder) Künftiger Aufbau von KI- und HPC-Beschleunigern Taiwan Semiconductor Manufacturing Co., Ltd. (Bild: Taiwan Semiconductor Manufacturing Co., Ltd. ) Optische Interconnects direkt auf den Chipkonstrukten sollen künftig zum Standard schneller KI-Beschleuniger werden, um sie per Glasfaser in einem Netzwerk zusammenzuschließen. Dazu packt TSMC Duos aus optischen Transceivern und elektrischen Schaltungen zur Übersetzung der optischen Signale auf den Träger. Das Produkt nennt TSMC Optical Engine. Die Logikchips verwenden weiter Elektronen zur Datenübertragung. Nvidia arbeitet für diese Technik bereits mit TSMC zusammen. Wafer-Prozessoren Will ein Hersteller in die Vollen gehen, gibt es noch die Systems-on-Wafer (SoW). Im Jahr 2027 soll die Ausbaustufe SoW-X für die Serienproduktion bereit sein: Ein Wafer dient dabei als riesiger Träger für unzählige aufgesetzte Chips, darunter Logikchips, I/O-Dies und Speicherbausteine. Ein Beispielschema zeigt 16 Compute-Dies mit 64 HBM-Bausteinen. Die bisherige Wafer Scale Engine (WSE-3) von Cerebras mit SoW-Technik verzichtet auf Stapelchips. Stattdessen belichtet TSMC alle Rechenwerke, SRAM und andere Bestandteile auf einem einzelnen Wafer. Die Chipkonstrukte für Rechenbeschleuniger werden immer größer, um mehr Leistung und Speicher zu erreichen. (Bild: Taiwan Semiconductor Manufacturing Co., Ltd.) Empfohlener redaktioneller Inhalt Mit Ihrer Zustimmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen. Preisvergleiche immer laden Preisvergleich jetzt laden (mma)