Archivwesen der Zukunft

Dieses Thema im Forum "Historische Hilfswissenschaften mit Genealogie" wurde erstellt von Stilicho, 28. August 2019.

  1. drmarkuse

    drmarkuse Mitglied

    Also ich bitte Dich. Schon Philip der II von Makedonien hatte die Trockenlegung von Mooren zum persönlichen Hobby. (Wenn man den Quellen glauben schenken darf , die von diesen Altvorderen über die Jahrhunderte abgeschrieben wurden).
    Und Du weisst schon dass Google an Kleinstgetier mit künstlicher Intelligenz forscht, denen die Daten im Moor schutzlos ausgeliefert wären.

    Ok- ich fühle mich inzwischen so gut aufgenommen dass ich zum Du übergehe.
     
    Zuletzt bearbeitet: 30. August 2019
  2. Stilicho

    Stilicho Aktives Mitglied

    Und wieder das Thema verfehlt. Es geht nicht um terrabyte, es geht um Manpower. Und zwar jahrzehntelang.
     
  3. Stilicho

    Stilicho Aktives Mitglied

    Die ist ja putzig. Aus der Sendung mit der Maus? Wohl eher nicht, dann wäre es realistischer.
    Selbstverständlich kommt es permanent zu Inkosistenzen in Datenbeständen, ein riesiges Problem.
     
  4. drmarkuse

    drmarkuse Mitglied

    Wieder kein Vorschlag. Machen wir doch mal ein Denkspiel um im Maus-Modus zu bleiben:

    Es ist 2019. Wir befinden uns in Alexandria. Die Bibliothek existiert noch. Darin lagern alle wichtigen Werke der griechischen Antike. Du bekommst den Schlüssel in die Hand gedrückt und wirst zum Bibliotheksleiter ernannt.
    Was sind Deine Massnahmen um das Wissen über die nächsten 1000 Jahre zu konservieren.

    Deine Vorgänger hatten die Vorschläge Cloud und in Mooren versenkte Mikrofilme in Edelstahlbehältern.
    Beide wurden dafür gefeuert und gevierteilt.
     
  5. Dion

    Dion Aktives Mitglied

    Die Situation heute ist nicht anders als sie es vor Jahrhunderten war. Konkretes Beispiel: Diejenigen, die Minuskelschrift benutzten, machten sich sicher keine Gedanken darüber, ob in 400 Jahren das noch für jemand lesbar sein würde. Erfreulicherweise können manche das heute trotzdem ganz gut lesen.

    Entsprechend können wir nur nach besten Wissen und Gewissen und unseren technischen Möglichkeiten handeln. Denn was nach uns kommt, können wir nicht wissen. Und über etwas, das wir nicht wissen können, lohnt sich nicht den Kopf zu zerbrechen. Konkretes Beispiel: Wenn jemand in 400 Jahren wissen will, was ein Wordstardokument enthält, wird er in Archiven Dokumente finden, die nicht in Wordstarformat gespeichert sind, aber trotzdem exakt beschreiben, wie dieses Format organsiert ist. Dann schreibt dieser jemand ein Programm dafür – oder lässt wahrscheinlich einen Roboter das machen – und das Problem ist gelöst.

    Dass bei der NASA, bei der die EDV ab den 50 Jahren eingesetzt wurde, Datenverluste eingetreten sind, ist weniger auf technische Unzulänglichkeiten zurückzuführen gewesen, sondern auf organisatorische Mängel: Die grundlegenden Archivierungsgrundsätze wurden nicht eingehalten. So sind 1,2 Millionen Magnetbänder aus 30 Jahren Raumfahrt nicht mehr benutzbar, weil diese nicht oder nur unzulänglich beschriftet sind mit der Folge, dass eine Zuordnung der einzelnen Bänder zu den einzelnen Raumfahrtmissionen nicht möglich ist.

    Das würde davon abhängen, ob wir 40.000 Dokumente, wie einige sagen, einscannen müssten, oder 400.000, wie andere meinen.

    Zum Vergleich: Die bayerische Staatsbibliothek digitalisiert ihre Bestände seit 20 Jahren und hat bisher 1,2 Millionen Seiten geschafft.

    Siehe auch: Digitalisierung
     
    Zuletzt bearbeitet: 31. August 2019
    drmarkuse gefällt das.
  6. silesia

    silesia Moderator Mitarbeiter

    Für die NASA-Daten bitte eine Quelle angeben.
     
  7. Solwac

    Solwac Aktives Mitglied

  8. drmarkuse

    drmarkuse Mitglied


    Phantastisch! Unter diesem Link ist ja alles genau aufgeführt sogar mit einem kleinen Filmchen und einem Prozess Flow-Chart. Alle Gesichtspunkte werden dort erklärt:

    - Die verschiedenen Scan-Methoden für unterschiedliche Schriftstücke
    - Qulitätssicherung
    - Automatisierung der Scanvorgänge
    - Praxisregeln der Deutschen Forschungsgemeinschaft
    - Langzeitarchivierung im Rechenzentrum
    - Erfassungs - und Nachweisdatenbank
    - Skalierbarkeit
    - Open-Source statt kommerzielle Anbieter
    - Plattformunabhängigkeit
    - Katalogisierung und Suchfunktionen
    - Umfang (2 Millionen digitalisierte Werke ,1000 Terabyte ; zum Vergleich bei Alexandria sprechen wir maximal von einem Viertel nämlich 500.000 Werke)

    das ganze ist budgetiert und das Ziel demokratisierten Wissenszugangs ist formuliert:

    "sämtliche Digitalisate sind weltweit frei und kostenlos im Internet abrufbar. Sie werden für die Nachwelt dauerhaft gesichert und zugänglich gemacht"

    Bayern spielt einfach beim Thema Fortschritt in einer anderen Liga. Wahnsinn, dass hier sogar dreidimensionale Objekte digitalisiert werden und dann von allen Seiten betrachtet werden können. Das heisst man kann sogar Kunstobjekte und archäologische Funde aus dem Museum holen und der Welt zugänglich machen.

    Damit sollte die Diskussion über Floppy Disks beendet sein (dabei handelt es sich vermutlich um ein Archiv in Berlin) .
     
    Zuletzt bearbeitet: 31. August 2019
  9. Shinigami

    Shinigami Aktives Mitglied

    Damit es hier in irgendeiner Weise einmal wieder produktiv wird, wüsste ich von euch zweien gerne einmal den Grund, warum ihr auf die Idee kommt, Bibliotheken und Archive seien so ohne weiteres in einen Topf zu werfen, im Fall von @drmarkuse noch Bibliotheken aus grauer Vorzeit?

    @Dion

    Kleines Gedankenexperiment:

    1.200.000 Seiten. Nehmen wir der Einfachheithalber mal an, das durschnittliche Buch habe 100 Seiten.

    Dann beläuft sich die Digitalisierungsleistung also auf einen Gesamtumfang von 120.000 Büchern in 20 Jahren.
    Teilen wir das durch die Anzahl der angegebenen Jahre kommen wir bei 6.000 heraus.

    Hat das durchnittliche Buch demgegenüber 200 Seiten, sind es noch 3.000 im Jahr.
    Hat das durchschnittliche Buch demgegenüber 300 Seiten sind es noch 2.000 im Jahr

    Wie wir an den Zahlen unschwer erkennen können beläuft sich die Digitalisierungsleistun, wenn wir hier auf die Handvoll vollständig arbeitsfreier Tage wegen Marginalität (Ich gehe mal davon aus die Barische Staatsbibliothek kann auch an Wochenenden aufgesucht werden) mal verzichten bzw. das einfach mal ungefähr umsetzen, sprich die 3.000 Exemplare a 200 Seiten im Jahr nochmal durch durch 300 Tage Teilen, stehen am Ende pro Tag ca. 10 Exemplare a 200 Seiten.
    Gesamtleistung Pro Arbeitstag über den Daumen also ungefähr 2.000 Seiten.

    Bei diesen 2.000 Seiten handelt es sich aber um (wie man annehemen dar vorwiegend neuere, sprich weniger behandlungsintensive) Literatur, die neben ihrer Digitalisierung keiner weiteren Bearbeitung bedarf.

    Würde es sich im Archivalien handeln, wären diese erst noch zu sichten, zu ordnen und im Rahmen der Verfielfältigung müsste bei jedem einzelnen Dokument darauf geachtet werden ob es der Öffentlichkeit überhaupt bereits zugänglich gemacht werden darf oder nicht, bei älterem Material kommen gegebenenfalls Editionsarbeiten zur Erleichterung der Lesbarkeit oder Restaurationstätigkeiten hinzu, zudem müssen die älteren Bestände, ao wei dies möglich ist laufend an den neuesten Stand der Erkenntnisse in Sachen Konservierung angepasst werden, auch das kostet Manpower.


    Darüber hinaus, stellst du dir selbst offensichtlich die Frage der Neuzugänge nicht. Nehmen wir hier mal bei ausschließlich neueren Werken eine durschnittliche Seitenzahl von 300 Seiten pro Exemplar an. Derer wäre die benannte Staatsbibliothek also in der Lage 2.000 Stück digital pro Jahr umzusetzen.

    Die Wiki-Seite gibt für den Gesamtbestand 33,5 Millionen Medien (Nicht Seiten!!) an.

    Selbst wenn man also davon ausginge, die Bayrische Staatsbibliothek, würde niemals Neuzugänge verzeichnen und jedes Medium würde nur eine Seite umfassen, währens man 1,5 Millionen schon abziehen darf, blieben weiterhin 32 Millionen Seiten.
    Wenn die Umsetzung von 1,5 Millionen 20 Jahre gedauert hat und dies weiterhin der Fall ist weil einerseits die Digitalisierung selbst schneller geht, andererseits die Umformatierung und beständige Migration und Verwaltung der bisherigen Bestände Ressourcen binden, kannst du dir ja ausrechnen, wie lange es beim bestehenden PErsonalstand dauern würde die Bayrische Staatsbibliothek zu digitalisieren.
    Nach meiner Rechnung deutlich über 400 Jahre.

    Stellt man sich jetzt noch der Realität der Neuzugänge, müsste einem klar werden, das realiter die Digitale Umsetzung mit dem Wachstum des Bestands nicht mithalten kann.
    Wohlbemerkt in einer BIBLIOTHEK, bei der anders als in einem ARCHIV keine Zusammenstellungen von Aktenbeständen etc. mehr vorgenommen und keine akribische Buchführung über Sperrfristen etc. eingehalten und umgesetzt werden müssen, sondern in einem Betrieb, in dem man bedenkenlos ohne Pause Medien über den Scanner ziehen und in Echtzeit einstellen kann.

    Wollte man also eine umfassende Digitalisierung in einem einigermaßen akzeptablen Zeitraum unter Berücksichtigung der realen Größe der Bestände in Seitenzahlen und von Neuzugängen, bewältigen, müsste man die dafür aufgewandten personellen und technischen Ressourcen verhundertfrachen, wenn nicht vertausendfachen.

    Was meinst du, wird man einem Abteilungsleiter antworten, der eine Expansion des Budgets seiner Abteilung um den Faktor 100 beantragt?
     
    Zuletzt bearbeitet: 31. August 2019
  10. Dion

    Dion Aktives Mitglied

    http://www.payer.de/digitalebibliothek/digbib02.htm

    Die Quelle ist aus dem Jahr 2001 – mit Aktualisierungen 2005 –, enthält aber u.a. auch „Grundsätze des Technischen Konzepts der Datenarchivierung im Bundesarchiv“. Es dürfte klar sein, dass das Bundesarchiv nicht auf dem technischen Stand von 2001 geblieben ist. Seit 2013 wird über die Fortschritte auch in dem Fachmagazin des Bundesarchivs „Forum“ berichtet: https://www.bundesarchiv.de/DE/Content/Artikel/Ueber-uns/fachzeitschrift-forum.html
     
    silesia gefällt das.
  11. Dion

    Dion Aktives Mitglied

    Die Diskussion über Floppy Disks und Ähnlichem war absurd, denn bei den Großrechnern, die ja für Archivierungen eingesetzt werden, waren sie nie ein Thema. Dort waren fast von Anfang an Magnetbänder im Einsatz, die – in verbesserter Form – noch heute eingesetzt werden – Zitat aus Wikipedia:

    „Im Bereich größerer Datenarchive haben Magnetbandsysteme heute noch Vorteile gegenüber Festplattensystemen: Mit Robotern und Magnetbändern gelingt es, deutlich größere Datenmengen in einer sogenannten Tape-Library unterzubringen als in einem gleichgroß gebauten Festplattenspeicher-System. Zudem müssen Magnetbänder – im Gegensatz zu Festplatten – nicht permanent in Bewegung gehalten werden; sie sind dadurch energieeffizienter, erzeugen weniger Abwärme und sind unempfindlicher gegenüber Erschütterungen und sonstigen mechanischen Einflüssen. Insofern haben Magnetbänder – insbesondere zur langfristigen Speicherung selten benutzter Daten – weiterhin eine Berechtigung und Marktrelevanz.
    Im CERN Advanced STORage manager, wo monatlich Petabyte hinzukommen, sind Festplatten nur Cache für zehntausende Magnetbänder.“
     

Diese Seite empfehlen