Die Entwicklung des Computers
(grob skizziert)

Was steckt hinter dem Wort "Computer" ?
Das Wort Computer stammt aus dem Lateinischen. Zum einen aus dem Wort "con", was "zusammen" bedeutet.
Zum anderen aus dem Lateinischen Wort "putare", was "rechen" oder "berechen" bedeutet.
Über das Französische kamen die Wörter ins Englische, "(to) compute", was "berechnen" oder "schätzen" bedeutet.
Das deutsche Wort "Rechner" konnte sich nur in unserem Sprachgebrauch in den Wörtern "Taschenrechner"
oder "Großrechner" durchsetzen.


Die Menschheit begann früh Dinge zu zählen und Mengen abzugrenzen.
Ein Beweis dafür stellen alte Ton- oder Steintafeln dar.
Die Markierungen in Form einer Kerbe oder einem Punkt bezeichnen die jeweiligen Mengen. Mit einer Kerbe oder Punkt wurde die Menge 1 dargestellt, mit zwei Kerben oder Punkten, die Menge 2 usw......
Ab der Menge 5 bis 10 wurden andere Symbole verwendet. Die Mengen über 10 wurden aus Kombinationen der Zeichen
1-10 gebildet.

Fast alle Hochkulturen entwickelten ihre eigenen Zahlensysteme. Sie begannen mit der Zahl "1".

Etwa im 8. Jhdt. n.Chr. erfanden die Inder die Zahl "0" (Null). So konnten Ziffern in einer Zahl nach ihrer Position gewichtet werden. Die Zahlensymbole wurden jetzt nicht einfach nur addiert.

Im 16. Jhdt. n.Chr. kam dieses Zahlensystem nach Europa und wurde eingeführt.

Im 19. Jhdt. n.Chr. gab es das Bestreben eine Maschine zu entwickeln, die rechnen oder zählen kann und das noch schneller als der Mensch selbst. Dieser Grundgedanke trieb die Entwicklung auf dem technischen Sektor voran.
Im Zeitalter des technischen Fortschritts im 19. Jhdt., boten sich jetzt die Möglichkeiten das Bestreben umzusetzen.


Wie alles begann:
Die erste Rechenmaschine war der Abakus. Der Abakus wurde ca. 2000 Jahre v.Chr. erfunden.
Er könnte ein Brett oder eine Steinplatte gewesen sein. Es wurde Sand auf den Abakus gestreut. So konnten Buchstaben oder Zahlen darauf gemalt werden. Die Babylonier begannen auf die Weise zu schreiben.
Das Wort "Abakus" leitet sich von dem phönizischen "Abak" ab.
Es bedeutet: "Gestreuter Sand auf einer Fläche zum Schreiben".
Als der Abakus nur noch für das Zählen und Rechnen verwendet wurde, machte es ihn zu einer Rechenmaschine.
Er entwickelte sich über verschiedene Stadien weiter und ist heute ein typischer rechteckiger Rahmen,
in dem auf Stäben aufgesteckte Holzkugeln hin und her geschoben werden.
Ein solcher Abakus kann mit 13 Reihen bis zu einer Billion =>
1012 -1 (9 999 999 999 999) rechnen.


1623 baute Prof. Wilhelm Schickard (*22.4.1592 - †24.10.1635) an der Universität Tübingen die vermutlich erste mechanische Rechenmaschine der Welt.


1891 entwickelte der 25-jährige Amerikaner Herman Hollerith eine elektro-mechanische Maschine, mit deren Hilfe doppelt so schnell gezählt werden konnte, als es ein Mensch kann.
Lochkarten ermöglichten das Speichern von Buchstaben und Zahlen.


1936 bis 1938 entwickelte Konrad Zuse eine mechanische Rechenmaschine Namens "Z1". Diese Rechenmaschine konnte programmgesteuert und frei programmierbar mit Lochstreifen verwendet werden. Zuse legte für die Rechenmaschine das binäre Zahlensystem zu Grunde.


1941 baute Zuse auf der Grundlage des Z1 eine in Relaistechnik gefertigte neue Rechenmaschine, den "Z3".
Es wurden 600 Relais im Rechenwerk verbaut. Für das Speicherwerk wurden noch einmal 1400 Relais verbaut.
Der Z3 laß, wie der Z1, über Lochstreifen seine Programme ein.
Im Mai 1941 war mit der Z3, auf der Basis des binären Zahlensystems, der erste voll funktionsfähige und frei programmierbare einfache Computer geschaffen wurden. Im 2.Weltkrieg wurde der Z3 leider zerstört.


1944 formulierte John von Neumann die Konstruktionsprinzipien eines Computers. Es sollen nicht nur Zwischenwerte im
Computer abgespeichert, sondern auch das eigentliche Programm gespeichert werden.


1946 wurde von der Firma "ENIAC" das erste elektronische Gehirn, basierend auf Röhrentechnik, entwickelt.
Es wurden 2.000 Röhren und 1.500 Relais verarbeitet. Die 1. Generation der Datenverarbeitung war geschaffen.
Der Großrechner wog 30 Tonnen und nahm einen Raum von 140 m2 ein. Er verschlang Strom für 3 U-Bahnlinien.
Die Geschwindigkeit des Großrechners lag bei 300 Rechenoperationen pro Sekunde (300 Hz).


1956 gab es die 2. Generation der Datenverarbeitung auf der Grundlage von Transistoren. Mit den Beginn des Zeitalters der Transistorentechnik konnten die baulichen Abmaße der Computer immer kleiner gestaltet werden.


1965 wurde das Zeitalter der 3. Generation der Datenverarbeitung begonnen. Es entstanden Rechnerfamilien auf der
Grundlage von integrierten Schaltungen. Die Funktionen der Computer werden durch Microprogramme gesteuert.


1971 wird der Microprozessor geboren. Das Rechen- und Steuerwerk war auf einem integrierten Schaltkreis (IC) vereint.
Es ist ein 4bit Prozessor(Intel-4004) der Firma Intel. Er leistet 60.000 Instruktionen pro Sekunde (60 MHz).
Die 8bit Prozessoren Intel-8008 und 8080, Motorola 68.000 und Zilog Z80 folgten.


1972 hat die 4. Generation der Datenverarbeitung ihren Einzug gehalten. Mehrprozessorsysteme und Schnellspeicherkonzepte
wurden auf der Grundlage von hochintegrierten Schaltungen möglich.
Die Datenfernübertragung (DFÜ) und standardisierte Betriebssysteme wurden entwicklet (z.B. UNIX).


1977 brachte Commodore den ersten PC (Personal Computer), zugeschnitten für Anwender auf den Markt.


1980 konnte die 5. Generation der Datenverarbeitung beginnen. Es wurden Expertensysteme und wissensbasierte
Systeme geschaffen. Die Entwicklung der künstlichen Intelligenz begann.


Seit etwa 1975 wurde die Computerentwicklung noch schneller vorangetrieben. Das war durch immer bessere technische Entwicklungen und kleiner werden Transistoren möglich. Die Entwicklungen wurden in dem Speicherbereich und den Laufwerktechniken, sowie noch leistungfähigigeren Prozessoren beschleunigt.

Von diesem Zeitpunkt an gehen die Entwicklungen in so viele Richtungen, dass ich an dieser Stelle für weiter Dateils auf den folgenden Link verweise:

http://www.weller.to/index.htm