Lange Zeit wurde die Herstellung neuer Chips vom sogenannten Mooreschen Gesetz bestimmt, benannt nach Gordon Moore, dem Mitbegründer von Fairchild Semiconductor und später Intel. Im Jahr 1965 schrieb er, dass „die Anzahl der Komponenten auf einem Chip bei gleichbleibenden Herstellungskosten jedes Jahr ungefähr verdoppelt wird“. Moore ging davon aus, dass diese Regel etwa zehn Jahre lang gelten würde, aber es stellte sich heraus, dass wir in der Lage sind, sie weiter zu verkleinern. Im Jahr 1971 erreichten wir eine Technologie mit einer Auflösung von 10 Mikrometern, im Jahr 1984 erreichten wir einen Mikrometer, im Jahr 2001 waren wir bei 130 Mikrometern und heute haben wir 3 Mikrometer erreicht.
i
Gordon Moore hat uns leider verlassen . Er starb am 24. März 2023 im Alter von 94 Jahren mit dem Bewusstsein, dass er in seinem Leben mehr erreicht hatte als andere in mehreren Leben.
Das Problem ist, dass hier die Verkleinerung praktisch endet. Die ersten Anzeichen von Problemen traten bereits vor zwanzig Jahren auf, als die Kosten für Entwicklung und Herstellung von Chips zu steigen begannen, aber heute kämpfen wir mit einer anderen Grenze – der Größe einzelner Atome. Bereits beim heute veralteten 14-nm-Herstellungsprozess war das Gate etwa 36 Atome breit – und heute nähern wir uns einer Größe, bei der es nur noch aus wenigen einzelnen Atomen besteht.
Und weiter verkleinern geht nicht, denn – um mit den Worten von Professor Farnsworth aus Futurama zu sprechen, „das würde viel kleinere Atome erfordern, und die sind schrecklich teuer“. Ernsthaft – wir können keine kleineren Strukturen als Atome bauen, das ist die absolute Grenze. Und dieser Grenze sind wir wirklich, wirklich nahe – realistisch wird noch mit 2 nm im Jahr 2024 gerechnet, aber ob es darüber hinausgeht, ist ungewiss.
Andere Wege nach vorne beinhalten beispielsweise die Verwendung neuer Materialien. Es werden Graphen-Transistoren entwickelt – Graphen ist eine Form von Kohlenstoff in Form einer einatomigen flachen Schicht, die es ermöglicht, Steuerelemente gerade in der Breite eines Atoms – einem Drittel eines Nanometers – zu bauen. Weiter geht es nicht – und man muss einen anderen Weg gehen, wobei das Stapeln (Sandwiching) bevorzugt wird, bei dem eine Rechenschicht direkt auf die andere gelegt wird. Dies bringt seine eigenen Probleme mit sich, sei es bei der Herstellung oder bei der verschlechterten Wärmeableitung, die bei so kleinen Strukturen ein echtes Problem darstellt.
Die meisten Hersteller akzeptieren, dass für eine gewisse Zeit die zweinanometrische Siliziumtechnologie das Beste sein wird, was sie in die Hände bekommen. Auch hier wird mit Techniken experimentiert, die den Platz besser nutzen könnten.
Auf der einen Seite gibt es Chips, die die gesamte Fläche des geätzten Siliziums – des Wafers – abdecken, sogenannte Wafer-sized Chips, die beispielsweise von der Firma Cerebras entwickelt werden. Sie sind als Beschleuniger für große Computer gedacht, die mit künstlicher Intelligenz arbeiten, und ein Wafer-sized Chip CS-1 bietet eine Leistung, die mit zehntausend GPUs der vorletzten Reihe vergleichbar ist – er selbst kann als Supercomputer klassifiziert werden.
Andere Technologien versuchen, einzelne Teile von Chips (Chiplets) direkt aufeinander zu stapeln und miteinander zu verbinden, was beispielsweise eine extrem hochgeschwindige direkte Verbindung von RAM-Speicher mit Prozessoren oder Grafikkernen ermöglichen würde. Eine weitere Richtung ist die Steigerung der Intelligenz klassischer Chips, wie die Ergänzung des RAM-Speichers um die Fähigkeit, einfache Berechnungen direkt in den Speicherzellen durchzuführen (In-Memory-Berechnung). Es handelt sich um eine spezialisierte Anwendung, die die Arbeit mit Matrizen beschleunigt, was beispielsweise für künstliche Intelligenz, aber auch für andere spezielle Anwendungen wichtig ist.
In der klassischen Elektronik geht der Trend in Richtung höherer Integration von Chips, wie wir sie beispielsweise bei Apple M1 und M2 sehen, dem Aufkommen von spezialisierten Beschleunigern für künstliche Intelligenz (Tensor-Beschleuniger, Tensor Processing Unit – TPU) und der Hardwarebeschleunigung von Video-Codierung und -Dekodierung sowie Kryptographie. Es handelt sich nicht um revolutionäre, sondern eher um evolutionäre Schritte, die neuen Prozessoren ermöglichen, effizienter zu arbeiten und wiederkehrende Aufgaben auf optimierte Hardware zu übertragen, die nicht nur leistungsstark, sondern auch energieeffizient ist.
Im Bereich der Hochleistungs-Chips tritt allmählich ein Problem auf, das sich beispielsweise darin äußert, dass neue CPU- und GPU-Prozessoren immer größer werden und immer mehr Energie verbrauchen, um höhere Frequenzen zu erreichen, was den Einsatz besserer Kühlung erfordert. Jetzt können wir aber nicht mehr mit einer einfachen weiteren Miniaturisierung rechnen, so dass wahrscheinlich eine Ära der Optimierung und Änderungen in der Computerarchitektur kommt, die versuchen wird, Geschwindigkeit auf andere Weise zu erreichen, beispielsweise durch eine höhere Integration einzelner Komponenten und damit eine Verringerung der Latenz bei der Datenübertragung innerhalb eines Computers.
Im Laufe der Zeit werden zweifellos neue und revolutionäre Materialien und vielleicht sogar ganze Prinzipien kommen, aber es wird nicht mehr so einfach sein, wie es Gordon Moore vorhergesagt hatte – wir müssen nach neuen und möglicherweise ungewöhnlichen Wegen suchen.