Computing Ende von Moores Gesetz verändert die Halbleiterindustrie
Das von Intel-Mitbegründer Gordon Moore formulierte Moore'sche Gesetz stößt an seine Grenzen. Dies hat Auswirkungen auf die Hardwarehersteller. Das Systemdesign dürfte deutlich komplizierter werden.

Bei einer Veranstaltung aus Anlass des 50. Jubiläums des Alan Turing Awards in San José/Kalifornien diskutierten Branchenexperten über die Zukunft des Computing. Sorge bereitet ihnen vor allem, dass Moores Gesetz, also die Verdoppelung der Zahl der Transistoren in einer integrierten Schaltung einer bestimmten Größe in einem Zeitraum von rund zwei Jahren, an seine Grenzen stößt.
Diese Beobachtung des Intel-Mitbegründers Gordon Moore ist kein physikalisches Gesetz, sondern eher die Formulierung einer ökonomischen Regelmäßigkeit. Doch bereits seit Beginn des 21. Jahrhunderts beginnt diese scheinbare Gewissheit zu wanken. „In letzter Zeit sehen wir, dass die Verdoppelung der Transistordichte sich auf drei bis vier Jahre verlangsamt hat“, sagte John Hennessy, der frühere Präsident der Stanford University, laut der EETimes.
Doug Burger, ein Distinguished Engineer bei Microsoft, der unter anderem an FPGAs für den MS-Clouddienst Azure arbeitet, ergänzt, dass die physikalischen Grenzen für die immer dichtere Integration der Schaltungen bald erreicht seien. „Moores Gesetz hat uns bis jetzt eine kostenlose Fahrt spendiert, und die ist jetzt beinahe vorbei“, sagte Burger: „Wir treten in eine wilde und chaotische Zeit ein.“
Wie lange die Industrie noch von Moore's Law zehren kann, vermag niemand zuverlässig vorherzusagen. Norm Jouppi, ein erfahrener Designer von Mikroprozessoren, forscht zur Zeit für Google an Chips für das maschinelle Lernen . Er denkt, dass die Verdichtung noch ein paar Jahre lang anhalten könnte, allerdings nicht in gleichem Maße für alle Bausteine.
Der frühere Stanford-Präsident John Hennessy orakelt, dass dynamische RAM-Speicher zu den ersten Halbleitertypen gehören könnten, die nicht weiter verdichtet werden können. Das könnte zu unausgewogenen Systemarchitekturen führen, fürchtet Microsoft-Mann Burger: „Das gibt viel Arbeit für die Systemdesigner“, zitiert ihn die EETimes.
Google-Forscher Jouppi sieht vertikale NAND-Speicher, bei denen die einzelnen Speicherschichten übereinander gestapelt sind, als die derzeit beste mögliche Lösung für das Speicherproblem. Er räumt aber ein, dass man viele Ansätze verfolgen müsse.
Die langfristige Hoffnung ruht auf dem Quantencomputer
Sein Microsoft-Kollege Burger sagt voraus, dass sich die Industrie in 20 Jahren so weit verändern werde, dass man sie nicht wiedererkennen würde. Google-Mann Jouppi vermutet, dass die Zukunft in anwendungsspezifischen Systemarchitekturen liegen könnte, deren Systemleistung für den jeweiligen Anwendungsbereich optimiert wird.
Hennessy warf daraufhin ein, ob die IT-Industrie sich dahin zurückentwickeln würde, dass bestimmte Firmen ihre komplette Hardware und auch die dafür vorgesehene Software komplett selbst entwerfen. Dies war in den 60-er und 70-er Jahren der Fall, als Unternehmen wie IBM oder Digital Equipment weitgehend proprietäre System- und Anwendungsarchitekturen entwickelten. Apple befinde sich auf diesem Weg, sagte Hennessy, und Google scheine hier zu folgen.
Schwieriger scheint es auf jeden Fall für die Softwareentwickler zu werden, die bisher mehr oder weniger kostenlos von den Leistungszuwächsen der Hardware profitierten. Die Industrie bewege sich immer mehr zu Systems-on-a-Chip, die mehrere Bausteine mit diversen Befehlssätzen auf einem Stück Silizium vereinen. Dies erfordere deshalb breitere Programmierschnittstellen.
Laut Jouppi werden die Softwareentwickler künftig noch mehr vor der Herausforderung stehen, ihre Programme auf höhere Effizienz zu trimmen: „Ich bin sehr zuversichtlich, dass wir Software und Hardware noch weiter verfeinern können, wir sind in dieser Richtung ein wenig schlampig gewesen und haben deshalb viele Möglichkeiten, die Effizienz über einen langen Zeitraum zu verbessern“, sagte er laut EETimes.
Die langfristige Hoffnung ruht auf dem Quantencomputer. Die Informatikprofessorin Margaret Martonosi von der Universität Princeton hat zumindest die gute Nachricht, dass eine Maschine mit 50 bis 100 Qubits in einem oder zwei Jahren verfügbar sein könne. Das Problem sei aber, dass ein solches System zunächst nur für eng umrissene Anwendungen genutzt werden könne.
„Es gibt eine große Lücke zwischen der Zahl der Qubits, die wir für breite Applikationen brauchen würden und der Zahl, die wir in absehbarer Zeit in zuverlässige Systeme einbauen können“, sagte Martonosi: „Es ist außerdem nicht klar, wer für solche Systeme und für diese Anwendungen bezahlt.“
Dieser Beitrag stammt von unserem Schwesterportal ELEKTRONIKPRAXIS.
(ID:44764896)