Zuse ist auch mit Patentansprüchen gescheitert.
[...]1941 meldete er ein Patent auf die Z3 an. Das Verfahren zog sich in die Länge und wurde erst 26 Jahre später abgeschlossen: Das Patentamt lehnte den Antrag "mangels Erfindungshöhe"[...]
Konrad Zuse 1910 - 1995 | Computer | ZEIT ONLINE
Der Z1 war sehr unzuverlässig weil der Handgefertigt wurde und die Materialgenauigkeit sehr grob war.
Als ersten "Heimcomputer" kann man den Altair 8800 von Ed Roberts in 1974 entwickelt bezeichnen. Das war das erste, erschwingliche, Gerät und wurde als Bausatz geliefert. Anfangs konnte man so gut wie gar nichts damit anstellen - ein paar Lämpchen zum leuchten bringen - nach zuvor eingeklickten Programm (die Programmierung erfolgte über Schalter).
Einen netten Emulator finden Interessierte hier: http://www.altair32.com/
Später wurde er sogar mit einem BASIC-Interpreter von, ja man glaubt es kaum, Microsoft ausgeliefert - Bill Gates programmierte ihn selbst.
Dann kann man wirklich schon sagen, dass der Apple kam und diese Geräte wurden schliesslich so Erfogreich, dass sie die "Marktarrogante" Firma IBM starke Kopfschmerzen bereiteten(sie erkannten die Bedeutung der Computer nicht - das Management war "zu alt"). IBM erkannte dies dann irgendwann doch und schlug zurück - sie waren ja immernoch sehr bekannt und vertreten, aber wurden doch so allmälich durch Computer ersetzt. Computer waren effektiver als rein mechanische Systeme, kleiner und Wartungsärmer. Sie entwickelten einen Rechner - besser gesagt ein BIOS (Basic Input Output System) und patentierten dies ersteinmal. Mit diesem BIOS-Chip wurde ein Rechner aus Fremdhersteller-Teilen zusammengebaut (Entwickelt). Dafür suchte man ein Betriebssystem und auch hier schaffte es Bill Gates "The Big Blue" zu überzeugen und bekam den Auftrag ein Betriebssystem zu liefern. Er kaufte von einem Studenten für 55.000 Dollar DOS und änderte es ein wenig ab, so dass er IBM das Betriebssystem rechtzeitig liefern konnte. Da Bill Gates meiner Meinung nach zu dieser Zeit einen sehr weiten Zulunftsblick hatte, verkaufte er IBM nicht das System selbst, sondern nur die Nutzungslizenzen - was ihn später zum reichsten Mann der Welt machte.
IBM gewann wieder mehr Marktanteile und drängte Apple vom Thron. Ein riesen Gegenseitiger Kampf brach los. Oder besser Steven Jobs, einer der Gründer Apples, verannte sich regelrecht in IBM das er gar nicht realisierte das es mittlerweile IBM-Kompatible Rechner gibt und nicht mehr IBM, sondern der Softwarelieferant Microsoft die Gefahr darstellt. Diese zu späte Erkenntnis hat Apple fast das Genick gebrochen und auch hier hat wieder Microsoft die Finger im Spiel - sie haben Apple stark unterstützt damit sie nicht untergehen (ich frage mich heute noch nach dem Grund)
Im Heimconsumer-Bereich kann man sagen, dass ab 1977...1980 die sogenannten Homecomputer den Siegeszug im Privatbereich begangen. Das muss aber nicht unbedingt mit dem C64 losgegangen sein - Dieser Computer war der erfolgreichste (auch ich hatte mehrere Exemplare ;-) ). Er wurde 17 Millionen mal verkauft. Aber auch Firmen wie Atari (ich hatte einen 800XL) oder Sinclar (da habe ich den Spectrum) waren sehr Erfolgreich. Es gab sehr viele Hersteller mit den unterschiedlichsten Betriebssystemen und Anwendungen. Der Markt war sehr durchwachsen - aber noch überschaubar (die Zeit war spannend).
Nebenbeibemerkt - das eingebaute Basic im C64 wurde auch von der Firma Microsoft geschrieben - Nicht die Hardware, die Software macht die Menschen unerwesslich recih ;-)
Computer selbst gibt es eigentlich erst (jetzt muss ich mit der Zeitangabe etwas raten) seit ca. 1970 - vorher war der Computer eine Berufsbezeichnung für die Menschen, die diese Geräte bedienten. Ich soweit ich informiert bin, gab es im Mittelalter diese Berufsbezeichnung (wahrscheinlich in England???) für die Steuerberechner (da muss jemand kundiges helfen).
Noch weiter zurück gedacht gab es auch schon Rechenmaschinen, die ich persönlich auch schon als Vollwertige Computer ansehe - denn die machen das, was der Name sagt: Rechnen - heute sind sie nur viel leistungsfähiger geworden, dank der Chips.
Das Prinzip ist aber immer das selbe: Ein oder Aus - das Binärsystem macht es möglich. Heute erfolgt dies in solch hohen Geschwindigkeiten, dass Anwendungen wie aufwändige Spiele möglich sind - daran hatte man noch bis vor wenigen Jahren nichtmal zu träumen gewagt.
Ich habe noch meine erste Computerzeitschrift, die ich vom Taschengeld gekauft habe: Eine Chip aus dem Jahr 1982. Dort wird eine "Wahnsinns Grafik" gezeigt, die von einem Hochleistungs-Grafikcomputer in langer Rechenzeit erstellt wurde. Heute schafft dies selbst das billigste Multimedia-Gerät für wenige Euro - das finde spannend.
Die Computer selbst veränderten sich eigentlich nicht so sehr - ich behaupte fast, dass sie sich vom Prinzip her überhaupt nicht verändert haben. Der Ruhm gilt eigentlich den Materialforschern, die es erst durch neue Materialien möglich machten die notwendigen "Schalter - 0/1" auf sehr kleinen Raum unterzubringen.
Ich denke, dass die Computer nur durch die Kombination aus Ausgabegeräten (Hardware) mit den Anweisungen (Software) uns Unterschiedlichkeit "vorgaukeln".
Aber selbst mein Fernseher ist ein Computer. Dieser sorgt für die Auswertung der Signale vom Empfänger (Kabel,Sat,Antenne,...) und gibt Anweisungen an die diverse Hardware (Ton, Bildschirm,...), die wiederum die Anweisungen in das brauchbare Format weitergeben - Der Tonchip muss die Lautsprecher korrekt mit Signalen versorgen damit die nullen und einsen in Hörbare, Analoge Schwingungen gewandelt werden können D/A-Wandler.
Aber alles liegt nur einem zugrunde - Null und Eins - An oder Aus. Erst die Leistung der Hardware und die Software können die Geräte erst richtig nutzbar machen.
Ich denke das auch deswegen Zuse kein Patent zugesprochen bekam. Er hat eben eine gute Kombination von Hard- und Software für damalige Verhältnisse getroffen. Vielleicht hätte er irgendeine wichtige Methode der Software patentieren lassen sollen... wer weiss. Aber so gesehen kann ich die Begründung des Patentamtes nachvollziehen.