Alles begann mit einem Fachartikel in einer Elektronik-Zeitschrift vor 50 Jahren. Seither treibt der als Mooresches Gesetz berühmt gewordene Grundsatz, wonach sich etwa alle 18 Monate die Komponenten auf einem Chip verdoppeln, die Computer- und IT-Industrie weltweit an. Aus der Beobachtung wurde eine Regel für die Zukunft. Und keine Regel hat die Technologie-Entwicklung und das Computer-Zeitalter so geprägt wie «Moore’s Law». Der Siegeszug des Personal Computers in den 80er und 90er Jahren sowie heute die mobile Revolution wären möglicherweise ausgeblieben. Und ein Ende ist vorerst nicht in Sicht, auch wenn die Halbleiter-Branche langsam an die physikalischen und finanziellen Grenzen der Prozessor-Technik stößt. «Moore’s Law» ist nach dem Chemiker und Physiker Gordon Moore benannt, der damals zu den Gründungsmitgliedern des heute weltgrößten Chipkonzerns Intel gehörte. Mit der Produktion von Mikroprozessoren betrat er zusammen mit dem Physiker Bob Noyce und dem Chemiker Andy Grove Mitte der 60er Jahre absolutes Neuland. Etwa drei Jahre vor der Gründung des heutigen Weltkonzerns erschien in der Zeitschrift «Electronics» am 19. April 1965 ein Fachartikel von Moore über die Chipproduktion, der das Prinzip begründete.
Dort sagte Moore eine ständige Leistungssteigerung der Microprozessoren bei sinkenden Kosten vorher. Die Prognose war zunächst gar nicht als «Gesetz» formuliert und wurde von Moore später noch etwas verändert. Demnach verdoppelt sich die Zahl der auf einem Mikroprozessor verbauten Transistoren – und damit je nach Design auch ungefähr die Leistung eines Chips – alle anderthalb bis zwei Jahre. Und bei gleichzeitig sinkenden Preisen. Als Faustregel hat der Grundsatz bis heute Bestand und treibt die Entwicklung immer kleinerer und leistungsfähigerer Geräte voran. Firmen wie Apple, HP und Samsung können sich bei ihren Designs darauf verlassen, dass Chips – wie einem Naturgesetz folgend – ständig keiner und leistungsfähiger werden.
Er habe eigentlich eine von ihm beobachtete Entwicklung in der Halbleiter-Produktion beschreiben wollen, dass Chips immer günstiger hergestellt werden könnten, sagte Moore unlängst einer Intel Delegation, die den ehemaligen Konzernchef befragte. Einer seiner Kollegen habe es dann später «Moore’s Law» genannt, «ein Name, der weit hinter allem liegt, das ich damals glaubte voraussehen zu können». Das bis heute offene Ende sei von ihm damals nicht vorstellbar gewesen. «Und es ist auch heute nicht erkennbar, wann es zu einem Ende kommen wird.» Mit der Zeit hätten es die verschiedenen Partner in der Computer-Industrie als einen Schrittgeber für Innovationen verstanden, den man einhalten müsse, um nicht technologisch zurückzufallen. «So entwickelte sich Moore’s Law von einer Maßeinheit für das, was geschehen ist, zu etwas wie der Antrieb der Industrie.» Über Jahrzehnte trieben Intel mit seinen Chips und Microsoft mit dem immer leistungshungrigeren Betriebssystem Windows die Leistungsspirale an. Dieses Bündnis ging unter dem Schlagwort «Wintel» (Kunstwort aus Windows und Intel) in die Computergeschichte ein.
Bereits in den 90er Jahren wurde darüber diskutiert, wann die Entwicklung von immer kleineren Computer-Chips einmal an ihre physikalischen Grenzen gerät. Mit immer wieder verfeinerten Verfahrenstechniken und neuen Lithographie-Techniken gelang es, die Chips bis in den niedrigen Nanometer-Bereich zu schrumpfen. Bislang ist ein Ende nicht absehbar, auch wenn die Entwicklungskosten für den technischen Fortschritt ebenfalls enorm wachsen. Die Strukturbreiten der Chips werden heute in Nanometer gemessen – also ein Milliardstel Millimeter – und sind mit bloßem Auge nicht mehr zu erkennen. Intels aktueller Prozessor Broadwell hat zum Beispiel Strukturbreiten von 14 Nanometer und vereint rund 1,3 Milliarden Transistoren auf einer Fläche von 131 Quadratmillimetern. Der erste Intel 4004-Prozessor Anfang der 70er Jahre fasste noch 2300 Transistoren.—pagebreak—
Später hatte Intel-Manager Pat Gelsinger die «Taktrate» bei der Chipproduktion durch sein «Tick Tock» genanntes Prinzip weiter in Schwung gehalten. Demnach wird abwechselnd ein bestehendes Chip-Design noch einmal geschrumpft (Tick) und erst dann eine neue Architektur entwickelt (Tock). Gordon Moore stand von 1975 bis 1987 als Chief Executive Officer an der Spitze des Konzerns und prägte das Unternehmen maßgeblich. Er hatte wie auch die Mitgründer Grove und Noyce Ende der 60er Jahre die Firma Fairchild Semiconductor verlassen. Mit der Gründung der Firma Intel wollten die Ingenieure die Entwicklung von integrierten Schaltkreisen und Microprozessoren vorantreiben – und legten damit den Grundstein für das Computerzeitalter.
Der erste serienreife Chip entstand 1971. Dass er das Fundament für künftige Computer-Chips bilden sollte, war dabei nur einem Zufall geschuldet. Intel sollte für die japanische Firma Nippon Calculating Machine Corporation einen Chip für eine neue Rechenmaschine bauen. Der Auftraggeber legte gleich die Architekturpläne für die Chips mit bei. Anders, als von Nippon gewünscht, hatten zwei Intel-Ingenieure aber den Plan für einen viel leistungsfähigeren Prozessor – und realisierten ihm. Intel kaufte später die Rechte an dem Design seinem Kunden wieder ab – sonst würde das Unternehmen aus Santa Clara in Kalifornien heute wohl kaum noch eine große Rolle spielen. Im Herbst 1971 kam schließlich Intels erster serienreifer Microprozessor 4004 heraus, der den Siegeszug des Personal Computers und der x86er Prozessoren begründen sollte, die noch immer in über 80 Prozent aller Personal Computer weltweit verbaut sind. Den Trend zu besonders energiesparenden Chips für Smartphones und Tablet Computer hat Intel allerdings verschlafen. Hier dominiert der britische Chip-Designer ARM, nach dessen Architektur Hersteller wie Samsung, Apple und Qualcomm ihre Chips bauen. (dpa)