Von der Lochkarte zur Cloud

Von der Lochkarte bis zur Cloud entwickelte sich die IT in den fünf Jahrzehnten, in denen ich „im Geschäft“ bin. Meine erste Begegnung mit Computern fand noch unter Umständen statt, die heute geradezu archaisch wirken.

Nach dem Wehrdienst nahm ich 1970 eine Anstellung in der neu gegründeten EDV-Abteilung einer Mittelstandsfirma an. Die erste Zeit wurde der Computer einer anderen Firma benützt. Tagsüber wurde programmiert und der Sourcecode in Lochkarten gestanzt. Ab 18:00 Uhr konnten wir dann die Programme kompilieren, testen und einsetzen. Viele Tage hatten 12 Arbeitsstunden und mehr. Der Computer war eine IBM 1401, die Assembler und Autocoder verstand. Das kompilierte Programm wurde wiederum per Stanzgerät als Lochkartenstapel ausgegeben.  Um ein Programm zu starten musste man also das richtige Lochkartenpaket heraussuchen und mittels Kartenleser laden. Selbstverständlich gab es keine Bildschirme. Die Kommunikation zwischen Rechner und Bediener erfolgte über eine Konsole in Form einer elektrischen Schreibmaschine.

Dann bekam die Firma einen eigenen Computer (MAI basic four). Es war eines der ersten Systeme mit Bildschirm. Auch wurden keine Lochkarten mehr benötigt; die Programme lagen nun auf der Festplatte. Als Arbeitsspeicher für Programm und Daten standen sage und schreibe 8 Kilobyte zur Verfügung, und – was soll man sagen – es hat gereicht. Die Festplatte bestand aus einem Stapel von Scheiben mit mehr als 30 cm Durchmesser und fasste immerhin schon 20 Megabyte. Der Computer erreichte locker noch Kühlschrankgröße, und die Plattenstationen hatten entfernte Ähnlichkeit mit Waschmaschinen.

Während noch diskutiert wurde, ob ein Computer auch etwas für Privatleute ist, kam der Volkscomputer VC 20 mit 5 Kilobyte Arbeitsspeicher und einer Auflösung von 176 mal 184 Pixel auf den Markt, und vom Atari träumt mancher noch heute. Als Monitor diente das Fernsehgerät.

Seither hat sich die Entwicklung kontinuierlich beschleunigt: Es kamen die ersten PC’s mit zwei 1,2 MB-Disketten als Laufwerke, dann die XT- und AT-Rechner unter DOS. Eine 20 Megabyte-Festplatte musste noch in mehrere logische Laufwerke aufgeteilt werden, weil das Betriebssystem soviel Speicherplatz an einem Stück nicht adressieren konnte. Fernwartung (ja das gab es schon) erfolgte über die Telefonleitung mit Akkustik-Koppler und einer Geschwindigkeit von 300 Baud. Die Übertragung eines Bildschirminhalts von 80 Spalten und 24 Zeilen dauerte also mehrere Sekunden.

Ich war stolz auf meinen ersten (wissenschaftlichen) Taschenrechner mit einer Genauigkeit von 10 Stellen. Er hatte mehr als 200 D-Mark gekostet und verfehlte die für eine Hosentasche passende Größe nur noch knapp. Man versuchte irgendwie, BTX auf sinnvolle Weise einzusetzen. Mit Windows 2.0 tauchten grafische Benutzeroberflächen auf. PC’s wurden vernetzt, liefen unter Windows 3.0 und hatten da bald einige Megabyte Arbeitsspeicher und 240 Megabyte Festplatten. Das Datenaustauschmedium der Wahl waren 3,5-Zoll-Disketten mit 1,44 Megabyte Kapazität. Das Internet rückte langsam ins Blickfeld. Man „surfte“ per 56-KBit-Modem, was gegenüber BTX schon rasend schnell war.

Heute tragen wir Supercomputer mit 8 Prozessorkernen und einem Arbeitsspeicher von 16.000 MegaByte und mehr in der Hosentasche spazieren. Das ist eine Million mal mehr als unsere ersten schrankgroßen Computer hatten. Zudem sind wir permanent mit dem Internet verbunden. Viele der App’s, die wir selbstverständlich benützen, wären in der Anfangszeit als reine Zauberei durchgegangen.

Während dieser gesamten Entwicklung war ich ununterbrochen in der IT tätig und nutzte für die Erstellung von Software stets gern die neuesten, besseren Möglichkeiten. Es wurde nie langweilig, und die Freude am Konzipieren und Realisieren kompetenter, komfortabler, effizienter und nachhaltiger Anwendungen kam mir zu keinem Zeitpunkt abhanden. Es machte seinerzeit schon großen Spaß, Computerbefehle in Lochkarten zu stanzen, und mit den damaligen Möglichkeiten fortschrittliche und hilfreiche Software zu gestalten, und es macht heute nicht weniger Spaß, eine App oder eine Web-Anwendung zu erstellen.

Während sich die Arbeitsweise und die Werkzeuge weiter entwickelten, änderten sich die grundsätzlichen Aufgabenstellungen in der maschinellen Informationsverarbeitung gar nicht so sehr. Wohl aber haben durch die weltweite Vernetzung Datensicherheit und Datenschutz immer mehr an Bedeutung gewonnen, und stellen heute ein zentrales Problemfeld in der IT dar.

Und da die Entwicklung noch lange nicht am Ende angekommen ist, sondern wohl eher gerade so richtig begonnen hat, bleibt es eine aufregende und spannende Herausforderung, weiter am Ball zu bleiben, und die solide Arbeit von Jahrzehnten in einem Umfeld, das sich 1970 niemand auch nur ansatzweise vorstellen konnte, unbeirrt und erfolgreich weiter zu führen.