Beiträge von Kalle66 im Thema „Wie bewahrt ihr eure Daten auf“

    Vielleicht hängt das NAS in einer DMZ?

    Seraphin,

    N = Network = online = jederzeit vom maßgeblichen Rechner aus mit Zugriff erreichbar (muss nicht via Internet sein)


    Das Problem ist, dass durch Viren/Hacker oder Bedienfehler so Daten jederzeit überschrieben werden können. Das Wesen eines Backups besteht darin, u.a. genau in solchen Fällen Daten wieder herstellen zu können. Weil dem Datenverlust ist es egal, ob dies durch eine defekte Platte oder ein geschriebenes Script mit Adminrechten geschah.

    Im privaten Umfeld geschehen die meisten Datenverluste immer noch durch unabsichtliches Löschen bzw. Überschreiben. Der Fehler sitzt sozusagen vorm Computer. Das hängt damit zusammen, dass zu Hause niemand ein Berechtigungskonzept erstellt und sich selbst für Alltagsaufgaben "entrechtet" auf Userlevel. Da wird quasi mit Adminrechten im Alltag gearbeitet. Windows hat seit einigen Jahren darauf reagiert und den normalen Admin teilweise entrechtet. Für bestimmte Aufgaben kann der sich zwar Adminrechte verschaffen, aber halt nicht dauerhaft, sondern immer nur auf Aufgaben (Befehl) bezogen, zum Beispiel die Command-Zeile (run as admin) oder den Explorer.

    Ich würde mir wünschen, dass man Admin und User noch strikter trennt und dem Admin, der einerseits alles können soll, dann den Zugriff auf Userdaten einschränkt. Salopp: Der Admin darf im Gegenzug kein Excel und Word usw. aufrufen. Der soll zwar User-Dateien durchaus löschen, kopieren dürfen (gehört u.U. zu seinem Job), aber im Grunde muss das einem Admin2 vorbehalten bleiben. Als Admin besteht aber kein Bedürfnis, dass er Userdateien ändern darf. Das sollten exkl. nur User (Accounts mit Userlevel) dürfen.


    Unterm Strich gibt es die eierlegenden Wollmilchsau bzgl. Datensicherung leider nicht. Die Szenarien sind zu vielfältig.

    Günther,

    das Automatisieren des Backups hat Vor- und Nachteile.


    Festplatten-Images gehen zwar schnell, aber setzen eine gleich aufgebaute Hardware voraus, auf die man ein Image dann zum Lesen einspielen kann. Das lohnt sich insbesondere, wenn man das Betriebssystem selbst gleich mit im Image hat. Nur für die Daten ist es m.E. nicht optimal, weil man es schlecht überprüfen kann. Der Ärger fängt schon an, wenn der Buchstabe für's Laufwerk geändert wird. Da reicht ein zweiter USB-Stick, der alle Laufwerksbuchstaben verschiebt.


    Batchskripte oder Synchronisierungstools (Replizierungstools) müssen selbst gepflegt werden. Dazu gehören Regeln, welche Version die "aktuelle" ist. Nimm eine Exceltabelle, lade die hoch, lass die eine Stunde laufen, aber ändere nichts daran oder (noch schlimmer) ändere was, aber mach's dann rückgängig ... schwupps kriegt die Datei ein neues Änderungsdatum, weil Excel die alle paar Minuten sichert. Das Backupprogramm denkt, es ist die "neuere" Version ...


    Insofern: Man sollte im privaten Umfeld abwägen, was man automatisieren möchte und wo man sich selbst an die Nase fassen muss. Mit etwas Disziplin (Datei-Ordner-Struktur) ist man m.E. händisch, aber mit voller Kontrolle privat besser aufgehoben. Ein Vorteil, wenn man es selbst macht: Man bleibt fit im Umgang mit Dateien und weiß, warum man Dateien wohin in der Ordnerstruktur schiebt.


    PS:

    Auch wer mit Clouddiensten arbeitet, sollte die Clouddaten lokal irgendwo sichern. Hier ist das Problem, dass es keine Langzeitgewähr gibt, ob der Clouddienst nicht eines Tages seinen Dienst einstellt oder die AGB/Kosten so ändert, dass man wieder raus will. Meist im Zusammenhang mit neuer Hardware, nachdem die alte den Geist aufgab. Und die kann mit einem alten Image regelmäßig nicht viel anfangen. "Diese Version ist nicht kompatibel ..."


    Privat habe ich noch keinen Datenverlust hinnehmen müssen

    Doch .. Ich find meine Codelistings vom Atari-ST nicht mehr wieder; die sind schon vor 24 Jahren beim Umzug im Papiermüll gelandet. Ein Ordner mit den Print-Dumps vom C64 wurde nach einem Wasserschaden im Keller dann letztlich doch entsorgt, ohne dass ich es getrocknet und kopiert habe.

    Ich hab schon mal einen Blitz erlebt, wie er 10m vorm Haus in einen Gullydeckel einschlug. Und die Blitzfolgeschäden im Haus ... Der DOS-Rechner war hinüber, das Radio wollte kein UKW mehr. Den Fernseher hatte ich gerade noch rechtzeitig vom Netz/Antenne genommen, als das mit den Blitzen selbst mir zu unheimlich wurde. Aber auch nur den, denn dann fragte ich mich: Bist Du blöde, irgendwelche Leitungen in die Hand zu nehmen. Stell dich schön weit entfernt von allem auf, was geerdet sein könnte.
    Und lärmtechnisch lies der eine Blitz jeden Polenböller zu Silvester alt aussehen. Was noch funktionierte, war der Fernsprechapparat der Deutschen Bundespost.


    Ralf:

    Das ist eine gute Frage, wie man seinen sogenannten "digitalen Nachlass" regeln soll.


    Aber Datensicherung ist eher was für die eigene Lebensphase.


    Wer meint, etwas sei nicht sicherungswürdig, der kann im Grunde gleich überlegen, ob es nicht gleich auf den digitalen Sperrmüll soll. Die Kriterien sind nämlich die gleichen.

    Wie wär's wenn man seine Daten nachfolgend aufbaut ...

    2022 / Eigene Bilder / Astro / Objekt/Projekt - Aufnahmedatum/Uhrzeit - Lights, Darks, Flats - lfd. Nummer

    2022 / Eigene Bilder / Fun / Oma Geburtstag
    2022 / Privat(Dokumente) / Steuererklärung für 2021

    oder zusätzlich noch einen Namen, wenn man Sachen für mehrere Personen mitmacht, weil man in der Familie der Computer-Guru ist.

    usw.
    Ob man bestimmte Sachen im Dateinamen oder als Ordnerstruktur unterbringt ist Geschmackssache. Ich persönlich mag z.B. keine Verzeichnisse mit mehr als 1000 Dateien. Unter Windows ist das Umbenennen von mehreren Dateinahmen komplizierter, als das Verschieben in einen Subordner. Auf der anderen Seite ist ein Batch-Skript umso aufwendiger, je mehr Subordner man hat und diese dann nicht haarklein eine bestimmte Struktur (relative Position zueinander) einhalten.

    PS: Und dann gibt es immer noch so uralt-Restriktionen, wie z.B. dass einige Windowsprogramme Probleme kriegen, wenn die Länge des gesamten Dateipfads dann 254 Zeichen überschreitet.

    So ein Standardpfad sieht unter Windows in etwa so aus und erreicht schnell 8 Ebenen.

    "c:/user/Kalle/Bilder/yyyy/Astro/M42/M42 2021-12-10 Light 058.tiff"

    Dieter,

    Bandspeicher sind nur eine Backup-Methode, nicht besser oder schlechter als ein Backup-NAS oder USB-Platte/externe SSD.


    Das wichtigste beim Backup ist, dass man es hat und pflegt. Ob das USB-Sticks, ein zweites Notebook, gebrannte DVDs, externe HDDs oder was auch immer ist, ist dann zweitrangig. Und wer eine Backupsoftware nutzt, sollte unbedingt testen, wie er die Daten auf einem anderen Rechner dann wieder eingelesen kriegt. Notfalls muss er ein Installationsmedium für die Backupsoftware haben oder besorgen können.

    Wenn es um Langfristigkeit geht: Gute Astrobilder auf Fotopapier entwickelt sind da unschlagbar. Aber da fängt das nächste Problem dann an, nämlich die Farbraumanpassung, um das Bild passend aufs Papier zu kriegen.

    Oberste Ebene ist bei mir das Jahr. Abgeschlossene Jahre werden nach einer Karenzzeit nur noch gelesen, aber niemals verändert. Solche Daten kopiere ich mir ins aktuelle Jahresverzeichnis, wenn es sein muss.

    Mag zwar redundant klingen, hat aber den Vorteil, dass ich für das Back-Up abgeschlossene Jahre nicht ständig anfassen muss und für Sachen, die ich mehrfach anfasse, dann Jahresversionsstände habe.

    (Firmen haben für ihre Buchhaltung oft einen 13. bis 15. Monat, die nur für den Jahresabschluss und anderen Spezialfragen ins Spiel kommen. Und es gilt die Regel: Einmal gebucht darf daran nichts mehr geändert werden.)


    Backups mache ich auf Dateiebene ohne spezielle Software. Unterm Strich habe ich die Daten auf dem Rechner, auf einem Backup-Medium und offline noch auf einem zweiten Backup-Rechner, der an einem anderen Ort steht. Der wird so alle 2 Monate auf dem Laufenden gehalten.

    Wer Daten generiert, kann mir nicht mit dem Argument kommen, es sei nicht genug Geld für Festplatten übrig. Dann muss man halt Wichtiges von Unwichtigem trennen und weniger Daten generieren.

    Und ab und an sollte man seine Backups auch mal prüfen und lesen Festplatten halten nicht ewig. Selbst 10 TB kann man binnen weniger Stunden mal testweise auf eine neue Platte schieben. Außerdem gibt es Utility-Programme, welche HDD-Parameter (bad sectors) auslesen und überwachen können.

    Häufigste Ursache für Datenverlust sind übrigens nicht Festplattencrashes, sondern unsachgemäßer Umgang (versehentliches Löschen, Überschreiben) und Virenverseuchung.

    Profis/Firmen machen Back-Ups nach einem Generationsprinzip: Inkrementell werden täglich neue/veränderte Daten gesichert, wöchentlich eine Vollsicherung gemacht. Dabei wird z.B. die Vollsicherung von vor 4 Wochen überschrieben, so dass man immer 4 Versionen aus den letzten 4 Wochen hat. Dito nach Monaten usw. Nebeneffekt: Die Sicherungsmedien werden regelmäßig neu beschrieben/gelesen (grundsätzlich mit v-Bit), schlechte Medien rechtzeitig ausgewechselt.
    Außerdem werden abgeschlossene Vorjahre aus dem laufenden Verzeichnis in ein Archiv verschoben. Je nach Anwendung müssen Daten zwischen 6 und 10, manche bis zu 30 Jahre und länger*** aufbewahrt werden. Selbst Privatleute müssen ja Handwerkerrechnungen 2 Jahre aufbewahren. Ich habe die Angewohnheit, dass ich Aktenordner, wenn sie abgeschlossene Sachverhalte betreffen mit einem Vermerk auf dem Rücken markiere: "Aufbewahren bis 31.12.xxxx"
    So muss ich mir Jahre später nicht den Kopf zerbrechen, was weg kann und was nicht.

    ***z.B. Röntgenbilder beim Zahnarzt 10 Jahre (denkt an den Tsunami, als man so Personen identifizierte), herrenlose Konten bei Banken, wo die Bank nicht weiß, ob der Kunde noch lebt und wer Erbe ist, bis die gesetzliche Verjährungsfrist von 30 Jahre abgelaufen ist, Schulen heben Zeugniskopien 45 Jahre lang auf ... Blöd, wenn das ein Keller im Ahrtal war.