Von Konrad Zuse zu Nixdorf

Dieses Thema im Forum "Technikgeschichte" wurde erstellt von Helmut Schuhl, 6. Februar 2008.

  1. Helmut Schuhl

    Helmut Schuhl Gesperrt

    Liebe Forenteilnehmer,

    ... das Konrad Zuse in seiner Pionierzeit noch keine Anerkennung finden konnte lag sicherlich auch an der Störungsanfälligkeit seiner Entwicklungen, so wie bspw.
    bei der berühmten Z3. Außerdem gab es für mechanische Geräte bereits
    fundierte Erfahrungswerte. Hierauf konnte Konrad Zuse eben nicht zurückgreifen.

    Trotzdem verstehe ich bspw. nicht weshalb erst Anfang der 60er Jahre ein
    1. Durchbruch im Computerbereich stattgefunden hat. Dadurch vermute ich,
    daß in den 50er Jahren es keine wirklich ernsthafte Entwicklungsarbeit in der
    Computerforschung gegeben hatte ...

    Wird diese Hypothese auch durch Fakten gestütz ?!
     
    Zuletzt von einem Moderator bearbeitet: 6. Februar 2008
  2. Helmut Schuhl

    Helmut Schuhl Gesperrt

    Richtigstellung

    o.k., dass war nicht besonders gut nachgedacht. Ich spreche natürlich von der Breitenwirkung. Die Atomtechnik war ein Spezialgebiet des Militärs, aber in der Industrie dauerte es sehr wohl noch eine ganze Zeit bis erstmals nennenswerte Fortschritte erzielt wurden.

    Um hier eine Aussage treffen zu können muss man militäre und zivile Zwecke offensichtlich sehr genau auseinanderhalten, obwohl das Internet ja zunächt auch im militärischen Bereich seine 1. ernsthafte Erprobung durchmachen konnte ...
     
  3. Repo

    Repo Neues Mitglied

    Ich denke auch, dass der Abakus in Verbindung mit Unterforen die Deutlichung derselben aufzeigt.
    Wenn dann noch der Kopierstift in Abzug gebracht werden kann, sollte man darüber nachdenken ob dies zu einer Schlichtung im Sinne der Steuerpolitik im Spätmittelalter und der danach aufsteigenden Antike führen könnte.
    Was wiederum klar macht, dass die Wahrheit auch außerhalb viggibetiass zu suchen ist.
     
    Zuletzt bearbeitet: 6. Februar 2008
  4. Repo

    Repo Neues Mitglied


    Jetzt tu mir doch ein einziges Mal den Gefallen und lies was man Dir schreibt.
    Es ist dem Compter sowas von S..-Egal ob er eine Erdumlaufbahn eines Spionagesatelliten oder den des Telstars (so hieß der erste Telekommunikations-Satellit) errechnet. (da konnte man nämlich plötzlich die Fussball-Länderspiele aus anderen Kontinenten live sehen)
    Der Transistor (entwickelt bei Bell) ersetzte die von Zuse noch eingesetzte Röhre, ein Quantensprung, die Miniaturisierung die gerade in den fünfzigern riesen Fortschritte machte, Halbleiter, alles kam in dem von Dir genannten Zeitraum auf.

    Nichts lässt sich da in militärisch oder zivil trennen.
     
  5. El Quijote

    El Quijote Moderator Mitarbeiter

    Hallo Helmut,

    ganz grundsätzlich ist derjenige, der eine Hypothese aufstellt, selber dafür verantwortlich, sie mit Fakten zu unterfüttern und seine These aufgrund dessen zu formulieren und zu verteidigen.
     
  6. Hurvinek

    Hurvinek Gast

    Die ersten Rechner taten das, was ihr Name sagte: sie rechneten, rechneten und rechneten.
    Dass solche Rechenmonster niemand privat in seiner Wohnung haben wollte wird wohl verständlich sein, dass die Personalcomputer erst später auf dem Markt kamen.

    Vielleicht ein kleiner Hinweis: um die ersten guten nicht-mechanischen Rechner am laufen zu halten brauchte man Transistoren, die erst 1947 erfunden wurden.
    Auch das Auto - wie wir es heute benutzen - wurde nicht bereits bei Erfindung so konstruiert sondern brauchte Jahrzehnte.
     
  7. timotheus

    timotheus Aktives Mitglied

    Normalerweise müßte dies detaillierter ausgeführt werden, aber dies würde (a) hier den Rahmen deutlich sprengen und wäre (b) für diejenigen, welche nichts weiter mit Informatik zu tun haben, auch etwas langatmig...

    Hier bringst Du bereits mehrere Dinge durcheinander: wegen seiner Störungsanfälligkeit unzuverlässig war die Zuse Z1 (was übrigens ein mechanischer Rechner war; deswegen war er auch so störanfällig!); die Zuse Z3 hingegen wird im allgemeinen Fachkonsens als erster funktionsfähiger Digitalrechner angesehen.
    Eine Einordnung zu diesen Rechnern - sowie anderen Rechnern von Konrad Zuse - findest Du in folgenden Artikeln bzw. auf den dort verlinkten Seiten am Artikelende:
    Zuse Z1 - Wikipedia
    Zuse Z3 - Wikipedia

    Diese Hypothese wird keineswegs durch Fakten gestützt, sondern durch diese entkräftet: in den 50er Jahren liegt immerhin der Beginn der Produktion kommerzieller Computer, d.h. die ersten Serienfertigungen (wenn die Serienrechner auch bis 1958 sämtlich Röhrenrechner waren). Auch begann schon in den 50ern die Verdrängung der traditionellen Röhrenrechner durch Rechner, welche vollständig mit Transistoren bestückt waren (Bell Labs, 1955; Electrologica X1, 1958; Siemens 2002, 1959). Auch in dieses Jahrzehnt, welches "keine wirklich ernsthafte Entwicklungsarbeit" aufwies, fällt zudem das erste Magnetplattensystem (IBM, 1956).
    Durchbrüche in den 60er Jahren sind nicht der Durchbruch im Computerbereich schlechthin, sondern die Großrechnerarchitektur (IBM -> S/360; man kann auch den älteren IBM 1401 als Ausgangspunkt dafür ansehen), der Minicomputer (DEC -> PDP-1) und der erste Personal Computer/PC (Einzelplatzrechner im Unterschied zum Großrechner) (Hewlett Packard -> HP-9100A).
    Anm. bzgl. erster PC: Der HP-9100A war noch nicht für Privatanwender gemacht; diese Entwicklung setzte erst ab den 70ern ein, als die entsprechenden Baugruppen/Bauteile entsprechend preisgünstig geworden waren. Der erste auf Heimanwender ausgerichtete Computer war der Altair 8800 (1974), der erste - jedoch nur für die Forschung eingesetzte - PC mit graphischer Benutzeroberfläche war der Xerox Alto (1979).

    Für einen Überblick über die Geschichte des Computers empfehle ich den Artikel Computer - Wikipedia, insbesondere den Abschnitt Computer - Der Siegeszug des elektronischen Digitalrechners - Wikipedia
     
  8. timotheus

    timotheus Aktives Mitglied

    Die Artikel bei Wikipedia, welche Themen der Informatik, Rechentechnik, Computergeschichte u. dgl. behandeln, sind durchaus von ausreichender Qualität, um die Schwachpunkte der eingangs von Dir genannten These aufzuzeigen und diesbezüglich ergo schon zielführend.
    Außerdem hatte ich zu Beginn meines Beitrages bereits angeführt, daß man dies durchaus auch tiefgehender darlegen kann, ein derartiger "Fachvortrag" aber für unseren Diskussionsgegenstand aus mehreren Gründen zu weit greifen würde.

    Ein Computermuseum hilft Dir dahingehend auch nur dann weiter, wenn dort alle Jahrzehnte seit den ersten Entwicklungen eines Konrad Zuse incl. der anderen von mir bzw. in den verlinkten Artikeln angerissenen Orientierungspunkte entsprechend detailliert aufbereitet sind.
    Zur angesprochenen "Wissenslücke der 50er Jahre", auf welche Du hier reflektierst, hatte ich Dir bereits in meinem Beitrag die Punkte genannt, anhand derer Du diese Aussage doch zumindest mit einem Fragezeichen versehen kannst...
     
  9. Vitruv

    Vitruv Gesperrt

    Nur kurz zwei Anmerkungen zum Kontext, in dem Zuse seine ersten Machinen gebaut hat.

    Zuse erhielt ab 1941 Forschungsgelder von der Deutschen Versuchsanstalt für Luftfahrt (DVL) in Berlin Adlershof, einer der damaligen High-Tech-Schmieden, die sich davon eine Vereinfachung der Berechungsverfahren in der Flugzeugoptimierung (auch Strömungsoptimierung etc.) versprach.

    Die Nachfolgerin der TH Charlottenburg, die TU Berlin, zählt Zuse, vom Kreis der zahlreichen Nobelpreisträger abgesehen, zu ihren prominentesten 'Zöglingen'.

    Vitruv
     
  10. Helmut Schuhl

    Helmut Schuhl Gesperrt

    Differenzierung erforderlich

    Aus einem vorherigen Hinweis ist mir klar geworden, dass die militärische computeranwendungen stets am innovativsten war und dann später auch zivilen Zwecken zu nutze kam.

    Mein Beitrag zielte auf einen Entwicklungsstillstand der 50er Jahre für die zivile Nutzung hin. Diese Kluft wurde nach meiner Ansicht erst durch Fortschritte in der Industrie in den 60er Jahren erstmals überwunden. Allerdings weiß ich nicht, ob die ersten Apple-Modelle von Anbeginn auf den Absatz für Privatuser ausgelegt war.
     
  11. timotheus

    timotheus Aktives Mitglied

    Auch wenn die militärische Nutzung ein entscheidender Entwicklungsimpuls war - und bis heute ist -, greifen derartige Ableitungen zu kurz, denn wie so oft schließt das eine das andere nicht zwangsläufig aus (Stichwort: Nuklearforschung).
    Ich erlaube mir, die Passage des bereits zuvor verlinkten Artikels zu zitieren:
    Von Computer - Wikipedia
     
  12. Repo

    Repo Neues Mitglied


    Privatuser, Computer, Entwicklungsstillstand 50er Jahre.....

    Für "Privatuser" ging das Computer-Zeitalter, allerdings mit Einschränkungen, mit dem Apple los. So richtig eigentlich erst mit dem Commodore. Das siehst Du richtig.
    ABER, da sind wir schon sehr weit von den 50er Jahren weg.

    Für den Privatuser kam so ein Ding zuvor rein aus Kostengründen nicht in Frage.

    Aber es gibt ja auch die zivile Anwendung im Firmenbereich, und das ging in den 60jahren schon recht zügig los. Keine Festplatten, statt dessen Lochstreifen, Lochkarten, 8 Zoll-Disketten als Massenspeicher. Bei Volkswagen-Werkstätten gab es ab 1968 die Remida (Rechnungslegung mit Datenverarbeitung) im Breiteneinsatz. (Musste der Kunde, sein Auto, jede Arbeitsposition und jedes Teil auf Lochkarte vorhanden sein, die lochkarten insgesamt in die Kiste geschmissen werden, damit hinten eine Rechnung rauskam...) Operateur hießen die Fachleute die an diesen Höllenmaschinen sassen. Hochbezahlte Spezialisten, die ein paar Jahre später keiner mehr brauchte.
    Heute kennt man nicht mal mehr die Berufsbezeichnung als solche...

    Ach so, schau auch mal unter Xerox, die haben einige Zeit ganz schön mitgemischt.
    Dann natürlich IBM
    Und in Deutschland Nixdorf.
     
    Zuletzt bearbeitet: 12. Februar 2008
  13. Hellas

    Hellas Neues Mitglied

    Viele Leute die Erfindungen bzw.Entdeckungen gemacht haben wurden in ihrer Zeit in der sie lebten nicht verstanden oder wargenommen man verlachte sie,man verstand sie einfach nicht.Erst nach ihrem Tode wurde der Allgemeinheit bewusst, welche Möglichkeiten es durch diese Erfindungen gibt.
     
  14. Repo

    Repo Neues Mitglied


    Sehr schön gesagt, aber in Bezug auf Zuse oder Nixdorf stimmt das nun überhaupt nicht.
     
  15. deSilva

    deSilva Neues Mitglied

    @Hellas: Aber das ist mir jetzt zu allgemein.

    (1) Wir haben immer das langweilige Problem des "ersten Erfinders" (alle Amerikaner WISSEN, dass Graham Bell der Erfinder des Telefons war). Die wesentliche Frage ist, wer die Sache vorangetrieben hat. Durch die unselige Pause Ende des und nach dem 2. Weltkrieg ruhte Zuses Erfindung, während in England (Manchester Mark I, EDSAC) und USA (ENIAC, UNIVAC) die Musik spielte.


    (2) Eine erfolgreiche Innovation durchläuft immer vier Phasen
    - visionäre Prototypen
    - industriell nützlicher Einsatz
    - kommerzielles Massenprodukt
    - Antikes Museumsstück

    Der industrielle Einsatz von Großcomputern erfolgte , sobald ein akzeptables Preis/Leistungsverhältnis vorlag (Beispiele sind schon zitiert worden; die 360-Familie (!) erzielte dann den endgültigen Durchbruch) Bis dahin musste aber jemand die Entwicklung SPONSERN. Es ging hier nicht nur um ein Objekt der Größe eines Wohnzimmerschranks, sondern um den Inhalt eines ganzen Einfamilienhauses. Richtig ist, dass die schnellsten Rechner ("Whirlewind" :) ), die insbesondere die technische Innovation trieben, militärische Anwendungen hatten.

    Kleinere und bedeutend langsamere Rechner fanden ihren Weg natürlich auch in die geförderte Forschung. Zuses Lochstreifenmaschine Z4 wurde in der Tat von der ETH Zürich gekauft.

    Eine Übergangszeit (1980-1990) in den kommerziellen Markt wird sehr schön durch den Macintosh repräsentiert, einem Rechner, der endlich Benutzung durch einen "Laien", akzeptable Druckqualität und interessante Funktionalität zu einem Preis unter einem Monatseinkommen verband.

    Der darauf folgende Massenmarkt definiert sich dadurch, dass man nicht mehr die Frage stellt: "Hast Du einen Computer?", sondern der Verwunderung "Was, du hast KEINEN Computer!" Ausdruck gibt.
     
    Zuletzt bearbeitet: 5. April 2008
  16. Repo

    Repo Neues Mitglied


    Interessant für mich ist, dass Firmen die eine ganze Zeit dort standen, "wo die Musik spielt," faktisch über Nacht weg vom Fenster waren.

    Nixdorf ist doch so ein Beispiel. Sein Ausspruch zu den PC´s und ihren Chancen im gewerblichen Bereich: "Ein Fahrrad ist kein Auto" wurde kurz nach seinem Tod oft kolportiert. Als sich seine Fehleinschätzung immer deutlicher zeigte.

    OT: Mein erster Festplatten-Computer 1983 war ein Nixdorf T5, hatte eine 5 MB Festplatte, könnte man aber auf 10 MB erweitern. Meinte der Verkäufer.
    Bei der erforderlichen Festplattenkapazität hat man sich ja eigentlich immer nach unten verschätzt. Ging also nicht lange, war die Kiste voll.
    Anruf bei Nixdorf, was kostet die 10MB Festplatte? was DM 3.500, nützt nichts, also bestellt.
    Kam ein Knabe mit Padernborner Kennzeichen vorgefahren, hat ein bißchen auf meiner Computer-Tastatur herumgetippt. Hatte ich 10 MB.
    Mit anderen Worten, die Platte war drin, war lediglich über die Software auf 5 MB begrenzt.
    So bescheißen lässt man sich von der Fa. Nixdorf natrülich nur 1 mal im Leben.
     
  17. deSilva

    deSilva Neues Mitglied

    Ja, das ist hochinteressant! Da gibt es auch wohl die eine oder andere Untersuchung drüber, weil sowas auch als Dissertation Wirtschaftsinformatik taugt.
    Die beiden mir bekannten Gründe sind:

    - Fehleinschätzung des Marktes (also seiner unglaublichen Dynamik)
    - Enbindung dieser Firmen in einem "Mischwaren-Konzern"

    Die ersten Computer - bis in die 60er Jahre hinein - sind in enger Zusammenarbeit mit dem Hauptkunden praktisch in Einzelfertigung gebaut worden. Es gibt ein paar berühmte Aussagen aus der Zeit ("Wir werden langfristig allerdings zwei Computer brauchen: Einen für die Westküste, und einen für die Ostküste!") Serien waren klein, und man konnte es sich eigentlich nicht leisten, einen Computer NICHT zu verkaufen. Ich habe in meiner Studentenzeit noch an einem Rechner gearbeitet, der (fiktive) 4.000DM/Stunde kostete. Ich habe da Millionen verrechnet :)

    Verkaufspreise hatten viel mit der Umlage der Entwicklungskosten zu tun. Ein Computer bestand praktisch nur aus Einzelanfertigungen, wie der Leitstand eines Atomkraftwerks...

    IBM, die sich nicht wirklich für Computer interessierten ("Wir bauen nützliche Maschinen für das Groß-Büro! Elektrische Schreibmaschinen, Kartenlocher, Sortiermaschinen, Tabelliermaschinen - und nicht Spielzeuge für Eierköpfe!") erkannte plötzlich, dass sie alle Zutaten - einschließlich des "know-hows" - besaßen, um erfolgreiche Industrie-Großcomputer zu bauen. Sie hatten sich allerdings schon vorher - jedoch mehr als Sponsor und auf nicht unerheblichen Druck der amerikanischen Regierung - engagiert, dies aber als "nationale Aufgabe" und nicht als "Geschäft" gesehen.

    Das Baukasten-Konzept der 360-Famile, zusammen mit der seit 50 Jahren gebauten äußerst reifen Peripherie auf Lochkartenbasis, fegte praktisch jede Konkurrenz vom Markt.: IBM = Computer!

    Als Antwort darauf konnte man nur
    - "kompatibel" werden
    - den Nischenmarkt der Mini-Computer aufreißen
    - den Nischenmarkt der "Numbercruncher" (Forschungsrechner) bedienen.

    Den Firmen, die dazu in der Lage waren (insbesondere das Kapital dafür aufzubringen), fehlte vielleicht Fantasie, Durchhaltevermögen, und eine glückliche Hand. Man kann bei allen einen Schlingerkurs von Fusionen, Verkäufe, Aufkäufe, Konzentration aufs "Kerngeschäft" verfolgen. Ein Beispiel:
    Sperry, Remmington Rand, Bourroughs, Unisys. Diese Linie hat einige der interessantesten Rechner gebaut.

    Wir haben auch sowas in Deutschland (gehabt): Telefunken-Computer, AEG, Nixdorf, Siemens. Hier besonders deutlich, dass die Computerentwicklung ein - schwieriger! - Geschäftsbereich von Haushaltsgerätekonzernen war.

    In der Zeit der "PC"s gelten durch die generelle Produktion in Südostasien sowie die Vorgabe aller Standards durch die Chiphersteller Intel und AMD andere Regeln.
    Etwas überspitzt könnte man sagen, dass nun seit fast 20 Jahren eigentlich immer nur derselbe Rechner gebaut wird.
     
    Zuletzt bearbeitet: 6. April 2008
  18. heikom36

    heikom36 Neues Mitglied

    Zuse ist auch mit Patentansprüchen gescheitert.

    Konrad Zuse 1910 - 1995 | Computer | ZEIT ONLINE

    Der Z1 war sehr unzuverlässig weil der Handgefertigt wurde und die Materialgenauigkeit sehr grob war.

    Als ersten "Heimcomputer" kann man den Altair 8800 von Ed Roberts in 1974 entwickelt bezeichnen. Das war das erste, erschwingliche, Gerät und wurde als Bausatz geliefert. Anfangs konnte man so gut wie gar nichts damit anstellen - ein paar Lämpchen zum leuchten bringen - nach zuvor eingeklickten Programm (die Programmierung erfolgte über Schalter).

    Einen netten Emulator finden Interessierte hier: http://www.altair32.com/

    Später wurde er sogar mit einem BASIC-Interpreter von, ja man glaubt es kaum, Microsoft ausgeliefert - Bill Gates programmierte ihn selbst.

    Dann kann man wirklich schon sagen, dass der Apple kam und diese Geräte wurden schliesslich so Erfogreich, dass sie die "Marktarrogante" Firma IBM starke Kopfschmerzen bereiteten(sie erkannten die Bedeutung der Computer nicht - das Management war "zu alt"). IBM erkannte dies dann irgendwann doch und schlug zurück - sie waren ja immernoch sehr bekannt und vertreten, aber wurden doch so allmälich durch Computer ersetzt. Computer waren effektiver als rein mechanische Systeme, kleiner und Wartungsärmer. Sie entwickelten einen Rechner - besser gesagt ein BIOS (Basic Input Output System) und patentierten dies ersteinmal. Mit diesem BIOS-Chip wurde ein Rechner aus Fremdhersteller-Teilen zusammengebaut (Entwickelt). Dafür suchte man ein Betriebssystem und auch hier schaffte es Bill Gates "The Big Blue" zu überzeugen und bekam den Auftrag ein Betriebssystem zu liefern. Er kaufte von einem Studenten für 55.000 Dollar DOS und änderte es ein wenig ab, so dass er IBM das Betriebssystem rechtzeitig liefern konnte. Da Bill Gates meiner Meinung nach zu dieser Zeit einen sehr weiten Zulunftsblick hatte, verkaufte er IBM nicht das System selbst, sondern nur die Nutzungslizenzen - was ihn später zum reichsten Mann der Welt machte.
    IBM gewann wieder mehr Marktanteile und drängte Apple vom Thron. Ein riesen Gegenseitiger Kampf brach los. Oder besser Steven Jobs, einer der Gründer Apples, verannte sich regelrecht in IBM das er gar nicht realisierte das es mittlerweile IBM-Kompatible Rechner gibt und nicht mehr IBM, sondern der Softwarelieferant Microsoft die Gefahr darstellt. Diese zu späte Erkenntnis hat Apple fast das Genick gebrochen und auch hier hat wieder Microsoft die Finger im Spiel - sie haben Apple stark unterstützt damit sie nicht untergehen (ich frage mich heute noch nach dem Grund)
    Im Heimconsumer-Bereich kann man sagen, dass ab 1977...1980 die sogenannten Homecomputer den Siegeszug im Privatbereich begangen. Das muss aber nicht unbedingt mit dem C64 losgegangen sein - Dieser Computer war der erfolgreichste (auch ich hatte mehrere Exemplare ;-) ). Er wurde 17 Millionen mal verkauft. Aber auch Firmen wie Atari (ich hatte einen 800XL) oder Sinclar (da habe ich den Spectrum) waren sehr Erfolgreich. Es gab sehr viele Hersteller mit den unterschiedlichsten Betriebssystemen und Anwendungen. Der Markt war sehr durchwachsen - aber noch überschaubar (die Zeit war spannend).
    Nebenbeibemerkt - das eingebaute Basic im C64 wurde auch von der Firma Microsoft geschrieben - Nicht die Hardware, die Software macht die Menschen unerwesslich recih ;-)

    Computer selbst gibt es eigentlich erst (jetzt muss ich mit der Zeitangabe etwas raten) seit ca. 1970 - vorher war der Computer eine Berufsbezeichnung für die Menschen, die diese Geräte bedienten. Ich soweit ich informiert bin, gab es im Mittelalter diese Berufsbezeichnung (wahrscheinlich in England???) für die Steuerberechner (da muss jemand kundiges helfen).

    Noch weiter zurück gedacht gab es auch schon Rechenmaschinen, die ich persönlich auch schon als Vollwertige Computer ansehe - denn die machen das, was der Name sagt: Rechnen - heute sind sie nur viel leistungsfähiger geworden, dank der Chips.
    Das Prinzip ist aber immer das selbe: Ein oder Aus - das Binärsystem macht es möglich. Heute erfolgt dies in solch hohen Geschwindigkeiten, dass Anwendungen wie aufwändige Spiele möglich sind - daran hatte man noch bis vor wenigen Jahren nichtmal zu träumen gewagt.
    Ich habe noch meine erste Computerzeitschrift, die ich vom Taschengeld gekauft habe: Eine Chip aus dem Jahr 1982. Dort wird eine "Wahnsinns Grafik" gezeigt, die von einem Hochleistungs-Grafikcomputer in langer Rechenzeit erstellt wurde. Heute schafft dies selbst das billigste Multimedia-Gerät für wenige Euro - das finde spannend.

    Die Computer selbst veränderten sich eigentlich nicht so sehr - ich behaupte fast, dass sie sich vom Prinzip her überhaupt nicht verändert haben. Der Ruhm gilt eigentlich den Materialforschern, die es erst durch neue Materialien möglich machten die notwendigen "Schalter - 0/1" auf sehr kleinen Raum unterzubringen.
    Ich denke, dass die Computer nur durch die Kombination aus Ausgabegeräten (Hardware) mit den Anweisungen (Software) uns Unterschiedlichkeit "vorgaukeln".
    Aber selbst mein Fernseher ist ein Computer. Dieser sorgt für die Auswertung der Signale vom Empfänger (Kabel,Sat,Antenne,...) und gibt Anweisungen an die diverse Hardware (Ton, Bildschirm,...), die wiederum die Anweisungen in das brauchbare Format weitergeben - Der Tonchip muss die Lautsprecher korrekt mit Signalen versorgen damit die nullen und einsen in Hörbare, Analoge Schwingungen gewandelt werden können D/A-Wandler.
    Aber alles liegt nur einem zugrunde - Null und Eins - An oder Aus. Erst die Leistung der Hardware und die Software können die Geräte erst richtig nutzbar machen.

    Ich denke das auch deswegen Zuse kein Patent zugesprochen bekam. Er hat eben eine gute Kombination von Hard- und Software für damalige Verhältnisse getroffen. Vielleicht hätte er irgendeine wichtige Methode der Software patentieren lassen sollen... wer weiss. Aber so gesehen kann ich die Begründung des Patentamtes nachvollziehen.
     
    Zuletzt bearbeitet: 21. November 2009
  19. Snuggles

    Snuggles Neues Mitglied

    Zunächst muss man mal klären, über welche Computerentwicklung man reden will. Wenn wir hier über die USA sprechen, dann trifft deine obige Aussage sicherlich nicht ganz zu. Seitdem der Kalte Krieg Ende der 40er Jahre in seine erste heiße Phase eintritt, ist die Computerentwicklung in den USA immer vorangetrieben worden von der Verflechtung mehrerer Bereiche: Ich rede hier vom militärisch-industriell-akademischen Komplex. Das Militär
    tritt dabei immer als äußerst potenter Finanzier auf, der sowohl private Firmen und Industrien, als auch die Intelligenz an den Hochschulen für sich forschen und konstruieren lässt.

    Hier ensteht ein Wechselspiel zwischen militärischer und ziviler Entwicklung, welches bis auf den heutigen Tag nahezu unverändert geblieben ist. Dabei wurden zivile Unternehmen damit beauftragt, (militärische) Entwicklungsarbeiten zu leisten, die sie alleine nie hätten finanzieren können. Die Firmen selber gewannen dabei ein technisches Know-How, mit dessen Hilfe der Durchbruch im zivilen Bereich erst möglich wurde.

    (Wenn wir hier über die 50er Jahre sprechen, so ist mit einem zivilen Markt natürlich kein Massenmarkt gemeint. Als Beispiel hierfür sei etwa der Versicherungs- oder Bibliotheksbereich genannt. Der kleine (amerikanische) Mann kam mit Computern zu der Zeit allenfalls in Form seines Lohnabrechnungsausdrucks in Kontakt)

    Die Erfahrungen, die sich durch die neuen zivilen Märkte ergaben, die billiger hergestellten EDV-Produkte, von den Kinderkrankheiten befreit, und die daher ein relativ hohes Maß an Zuverlässigkeit besaßen, wurden so wiederum für die militärische Verwendung interessant.

    Was das Internet, bzw. das "ARPAnet" angeht, so stimmt es zwar, daß auch hier das Militär im Hintergrund steht, von einer "ernsthaften Erprobung" kann jedoch keine Rede sein. Im Gegenteil: Die Entwicklungspraxis hatte nur sehr wenig mit militärischen Beweggründen zu tun.

    Auch hier wieder: Über welchen Zeitraum sprichst du? Zwar stimmt es, daß IBM zunächst Kleingeräte für den Bürobedarf herstellte. Seit dem Ende der 40er und Anfang der 50er Jahre ist die Firma aber ganz dick im Computergeschäft tätig. Nehmen wir zum Beispiel das kläglich gescheiterte SAGE-Abwehrsystem. Im Verlaufe der 50er Jahre sind mehr als 20 Prozent (!) der IBM-Angestellten beschäftigt, Computer für das System zu bauen, bzw. neue Architekturen zu erforschen. 500 Millionen Dollar (!) streicht IBM hierbei ein. Die "nationale Aufgabe" ist dabei nur das Deckmäntelchen.


    Du scheinst mir die Entwicklung des Computers einseitig auf die Entwicklung seiner Hardware zu beschränken. Sicherlich sind die Erfindung von Röhren, Transistoren und Mikroprozessoren, von unterschiedlichen Ein- und Ausgabemedien usw. wichtig. Du hast weiterhin sicher recht, daß sich konzeptionell nach der Veröffentlichung der von-Neumann-Architektur nicht all zu viel wesentlich verändert hat.
    Im Bereich der Software, oder der Computerbedienung, des Designs usw. hat sich jedoch enorm viel verändert. Hingewiesen sei bspw. auf die Entwicklung von interaktiven Mensch-Computer-Symbiose-Systemen. Das erscheint uns heute als selbstverständlich. In den 60er Jahren (in den USA) und den gesamten 70er Jahren noch (bspw. in Deutschland) war das vielfach undenkbar. Da war die Stapelverarbeitung noch das A und O.
     
  20. thanepower

    thanepower Aktives Mitglied

Diese Seite empfehlen