Die Zukunft des Prozessors

Moore’s law (dt. auch ‘das mooresche Gesetz’) besagt, dass sich die Anzahl, und damit die Leistungsfähigkeit, der Transistoren in integrierten Schaltkreisen in etwa alle zwei Jahre bei geringeren Kosten verdoppelt. Allerdings sind dieser Entwicklung auch Grenzen gesetzt, Grenzen die wir langsam aber sicher zu erreichen beginnen. Daher sehen wir uns heute einige vielversprechende Technologien für die weitere Entwicklung von Microchips an, mit denen diese Grenzen umgangen werden könnten.

Gerade bei der Diskussion von Zukunftsthemen lohnt sich oft ein Blick in die Vergangenheit, deshalb widmen wir uns erst kurz dem, was bisher geschah. Wir beginnen 1939 mit Russel Ohl, dessen Forschung in den Bereichen der Halbleiter und der Photovoltaik den Grundstein für die Entwicklung der auf Silizium basierenden Solarzellen und Transistoren legte.

Darauf aufbauend entwickelte Bell 1954 den ersten Siliziumtransistor, der von Texas Instruments vertrieben wurde. Es sollte allerdings noch bis zum Jahr 1971 dauern, bis diese Technologie auch in der Herstellung von Prozessoren (CPUs) für Computer Anwendung fand.

Das ist der Anfang von Moore’s Law. Wie bereits erwähnt, verdoppelt sich nach diesem Gesetz die Anzahl der Transistoren die wir in einem Schaltkreis verbauen können ca. alle zwei Jahre. Das bringt natürlich einen gewaltigen Fortschritt in Bezug auf die Leistung, während die Kosten der Chipherstellung allerdings sinken. Das stimmte zumindest gute 37 Jahre, bis sich 2012 die Entwicklung zu verlangsamen begann. So eine Geschwindigkeitsreduktion passierte zwar keineswegs das erste Mal, da die Entwicklung zu Anfang schneller passierte als vorhergesagt (Verdopplungsrate: 18 Monate), allerdings kommen nun eben die Grenzen der technischen Machbarkeit in Sicht.

Prozessoren werden aktuell immer noch aus Silizium hergestellt, das wiederum aus dem reichlich vorhandenen Material Sand gefertigt wird. Das Problem liegt darin, dass die Prozessoren immer kleiner und enger verbaut werden.  Von einer durchschnittlichen Größe von 90nm Mitte der 2000er schrumpften sie bereits zur jetzigen Durchschnittsgröße von 14nm. Und es besteht die Vorhersage, dass die Entwicklung bis 2021 hin zu einer Größe von 7 oder möglicherweise sogar 5nm gehen wird. Gleichzeitig wird es aber immer komplexer diese Miniatur-Schaltkreise herzustellen und je näher wir der Grenze von 5nm kommen, desto mehr werden Auswirkungen wie etwa der Tunneleffekt (Partikel können sich frei bewegen, obwohl sie eigentlich in Kanälen gelenkt werden sollten – bedingt durch die geringe Größe der Transistoren) sichtbar. Daher sind Hersteller von Microchips natürlich ständig auf der Suche nach alternativen Materialien oder biologischen Komponenten um dieses Problem zu umgehen.

Die vielversprechendsten Technologien für die weitere Entwicklung in diesem Bereich werden nun also im Folgenden kurz zusammengefasst.

3D Technologie

Eine mögliche Alternative in der Entwicklung ist, bei Silizium als Material zu bleiben, aber die Art und Weise wie es eingesetzt wird zu überdenken.  Anstelle zu versuchen, eine immer höhere Anzahl an Transistoren auf immer kleinerem Raum unterzubringen, könnte man mit einer strukturellen Herangehensweise mehrere Siliziumschichten auch über einander stapeln.

Einige Vorteile dieser dreidimensionalen Methode:

  • – Mehr Funktionalität auf kleinerem Raum
  • – Niedrigere Herstellungskosten
  • – Schaltkreis-Schichten können mit verschiedenen Prozessen oder verschiedenen Arten von Silizumscheiben hergestellt werden.
  • – Die durchschnittliche Drahtlänge sinkt um 10–15% (bei längeren Verbindungen)
  • – Der Energiekonsum sinkt 10–100fach.
  • – Höhere Bandbreite in der Verbindung einzelner Schichten

Bild: www.micron.com

Eine typische Anwendung für diese Technologie könnte die 3D Anordnung eines Prozessors und eines Speichers sein.

Kohlenstoffnanoröhren

Kohlenstoffnanoröhren werden aus Kohlenstoffplatten mit einer Dicke von nur einem Atom hergestellt. Diese werden zu Röhren geformt, die einen Durchmesser von 1 bis 2nm haben. Kohlenstoffnanoröhren leiten Elektrizität besser als die meisten anderen Materialien und haben in etwa die fünffache Leistung eines herkömmlichen Siliziumtransistors. Dabei brauchen die Nanoröhren allerdings nur ein Fünftel der Energie. Wo ist also der Haken an der Sache? Nun ja, momentan besteht das größte Hindernis bei der Verwendung von Nanoröhren-Transistoren aufgrund der hohen Forschungs- und Entwicklungskosten, sowie aufgrund des teuren Produktionsequipments. Das macht Kohlenstoffnanoröhren momentan noch ungeeignet für die Massenproduktion, aber es ist nicht ausgeschlossen, dass sich das in einigen Jahren noch ändert.

Umstrukturierung der CPU-Architektur

Die Struktur heutiger Prozessoren beruht auf der Von Neumann Architektur. Darin ist die CPU, das Zentrum des Computers und Knotenpunkt für sämtliche Kommunikation der einzelnen Komponenten. Daher könnte die Lösung auch in der Umstrukturierung dieser Prozessorenarchitektur liegen. Die großen Hersteller Intel, Nvidia und AMD ziehen dabei alle am selben Strang und nutzen einen Grafikprozessor (GPU) für Chips mit integrierter Grafikeinheit. GPUs sind massiv parallele Schaltkreise, bestehen also aus relativ einfachen Komponenten, die allerdings in extrem hoher Anzahl vorhanden sind. Daher verfügen sie über tausende von Rechenkernen verglichen mit CPUs, bei denen es nur eine Handvoll sind. Ebenfalls im Gegensatz zu normalen Prozessoren ist der Tag an dem ihr exponentielles Wachstum durch die Gesetze der Physik eingeschränkt wird noch weit entfernt.

Quantentechnologie

Die klassische Datenverarbeitung basiert auf Bits – einzelne Informationseinheiten, die in maximal einem von zwei Zuständen existieren können, 1 oder 0. Quantencomputer dagegen sind nicht binär wie ihre traditionellen Artgenossen, da sie auf Qbits basieren, die mehrere Zustände gleichzeitig besitzen können. In anderen Worten können Quantencomputer mehrere Optionen gleichzeitig analysieren. Das wiederum bedeutet, dass uns Quantentechnologie dabei helfen könnte, Probleme zu lösen und Prozesse abzubilden, die aktuell gängige Computer längst überfordern würden.

Warum nutzen wir dann nicht nur noch Quantencomputer, werden sich an dieser Stelle wohl einige fragen. Die Antwort darauf ist, dass sich die Herstellung solcher Computer relativ schwierig gestaltet. Die Technologien, die normalen Computern zugrunde liegen und auf den klassischen Bits basieren, gibt es schon einige Zeit und daher sind sie auch gut erforscht. Dasselbe gilt leider nicht für die qbit-Technologie.

Dazu kommt, dass es in der Forschung keine allgemein anerkannte Methode gibt, qbits zu produzieren. Es gibt mehrere vorgeschlagene Herangehensweisen, die wahlweise auf der Nutzung von Ionen, Elektronen und anderen kleinen Partikeln, dem Einsatz von Supraleitern für Quantenschaltkreise und der Verwendung von Photonen und optischer Technologie beruhen. Während dies alles natürlich valide Ansätze sind, haben sie ein gemeinsames Kontra: mit den Ressourcen und Technologien, die uns aktuell zur Verfügung stehen, könnten diese Herangehensweisen im kleinen Rahmen funktionieren, der Massenproduktion allerdings niemals standhalten. Außerhalb der Forschung wird man deshalb Quantencomputer leider nicht so bald antreffen.

Wo stehen wir nun also?

Momentan gilt immer noch Moore’s Law, aber die Entwicklung verlangsamt sich zunehmend. So wie wir momentan Transistoren produzieren, werden wir bald die Grenze des physikalisch Möglichen in Bezug auf deren Minimalgröße erreichen. Es bleiben uns bis dahin allerdings noch gut zehn bis zwanzig Jahre. Bis dahin wird sich sicher eine der oben genannten Technologien als besonders geeignet und zukunftsweisend für die weitere Entwicklung herausstellen.