Setzt man sich heute vor einen Rechner, startet ein Programm, wartet einige Sekunden, bis dieses endlich die erhofften Resultate präsentiert, dann blättert man alsbald durch Prospekte der Computer-Discounter und liebäugelt mit neuer, leistungsfähigerer Technik.
Mit keinem Gedanken erinnert man sich an die monströsen Ungetüme aus Röhren und Transistoren im Turnhallenformat, die noch in den 70er Jahren die Leistung kleiner Kraftwerke erforderten, um letztlich nur einen Bruchteil an heutiger Rechenleistung zu vollbringen.
Zu jener Zeit wurden die "Rechengenies" noch per Hand mit Daten gefüttert, vom Administrator, der den Lochkartenstapel einlegte und nach Stunden oder gar erst Tagen die Resultate ebenfalls in Form von Lochkarten entnahm. Ein Betriebssystem kannte und brauchte man damals noch nicht.
Die Rechner wurden kleiner, passten schon in einen einzigen Raum, ihre Verarbeitungsgeschwindigkeit stieg und übertraf bald die Fähigkeit des Administrators, die Magnetbänder rechtzeitig zu wechseln. Es wurde Zeit, den Ballast der reinen Stapelverarbeitung (ein Job nach dem anderen) aufzugeben und zur Timesharing-Verarbeitung überzugehen. Man erweiterte den damals sündhaft teuren Arbeitsspeicher, so dass mehrere Jobs gleichzeitig rechenbereit auf die CPU warten konnten und teilte jedem Job eine genau festgelegte Zeitscheibe an CPU-Zeit zu. Von einer Interaktion mit dem Nutzer war man noch meilenweit entfernt.
MULTICS (Multiplexed Information and Computing System) wurde vom MIT, den Bell Labs und General Electrics ins Leben gerufen, in der Vorstellung, ein Betriebssystem für eine Maschine zu entwickeln, die über so viel Rechenkapazität verfügen sollte, um alle Einwohner von Boston bedienen zu können. Auch wenn das Projekt wegen seiner Komplexität zum Scheitern verurteilt war, brachte es für das spätere Verständnis des Aussehens von Betriebssystemen wertvolle Erkenntnisse.
1969 schließlich griffen Ken Thompson und Denis Ritchie, zwei Mitentwickler von MULTICS, die Idee wieder auf und verwirklichten Teile davon in UNICS.
Grundlegende Überarbeitung erfuhr das Betriebssystem durch Forschungen an amerikanischen Universitäten, nachdem AT&T die Source-Lizenzen preisgünstig an diese abgab (der kommerzielle Vertrieb war AT&T zunächst per Gerichtsbeschluss untersagt worden).
Erstes kommerzielles Produkt war UNIX Version 7, das unter dem Namen System V vertrieben wurde. Es folgten zahllose weitere UNIX-Derivate mit mehr oder minder großem Erfolg (AIX vom IBM, HP-UX von Hewlett Packard, Xenix von Microsoft, Sinix von Siemens, Solaris von SUN, BSD der Berkely University, Parix von Parsytec, ...).
Professor Andrew S. Tanenbaum implementierte 1987 ein zu UNIX Version 7 kompatibles System mit dem Namen Minix. Es diente ihm als Lehrsystem für seine Studenten und wurde auch im Quelltext für ein gewisses Entgelt verfügbar. Größtes Manko von Minix waren die durch den Autor beschränkten Erweiterungsmöglichkeiten im Kernel, so dass z.B. das X-System niemals unter Minix laufen kann.
Um seinen 386er genauer zu inspizieren, schrieb ein finnischer Student namens Linus Torvalds im Jahr 1991 einige Assemblerroutinen, die schließlich ein minimales Betriebssystem formten. Linux erblickte das Licht der Welt, und da Torvalds den Sourcecode an interessierte Minixer verschickte, fanden sich bald weltweit Interessenten zusammen, die fortan über das Internet kommunizierten und ihre neuesten Erweiterungen zu Linux verbreiteten.
Von Anfang an stellte Torvalds seine Sourcen unter die Verantwortung der GPL, so dass diese frei kopiert werden konnten und jedem Interessenten zur Verfügung standen. Gleichzeitig war man bei der Entwicklung auf Konformität zum POSIX-Standard bedacht, wodurch Linux ohne großen Aufwand auf andere Hardware-Plattformen portierbar wurde.