Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »SMD« (13.01.2016, 16:42)
Wenn es meine Festplatte wäre, würde ich das auch so machen. Ich würde dafür das Live-Image von »Partition Magic« verwenden, welches ein Festplatten-Partitionierungs-Tool ist (, kostet rauche ich alle Nase lang mal) und unter Linux läuft. Das Live-Image startet von CD oder von USB-Stick. Allerdings ist die Dame nicht hier bei mir um die Ecke ... und ich habe im Moment genügend eigene Probleme an der Backe, so dass ich nicht noch die von anderen Leuten benötige.
Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »SMD« (13.01.2016, 17:02)
Um genau diesem GAU vorzubeugen, habe ich Platten im Raid1-Verbund laufen, eine weitere Interne, auf die jeden Tag die Daten um 03:00 Uhr per Cronjob & rsync kopiert werden. Eine weitere Platte extern, auf die jeden Tag um 05:00 Uhr inkrementelle Änderungen gespeichert werden und einmal pro Woche ein vollständiges Archiv geschrieben wird. Nach drei Monaten werden die ersten Archive gelöscht.
Das Alles durchläuft noch einen MD5-Checksum-Vergleich (ja, ich weiß, dass es Collisions gibt. Aber die sind recht unwahrscheinlich), um die Datenkonsistenz sicherzustellen.
Jeden Montagfrüh wird nach OneDrive gespeichert - als verschlüsseltes Archiv. Und einmal pro Monat (nach Monatsabschluss) wird als einziger manueller Schritt (per Erinnerung) noch ein verschlüsseltes Archiv auf mein Notebook erzeugt.
Ich verfüge also auch über eine gewisse Georedundanz. Die Wahrscheinlichkeit, dass drei Örtlichkeiten und alle Platten gleichzeitig abrauchen, dürfte recht gering sein. Und den Verlust von den vier Platten in den letzten 5 bis 6 Jahren habe ich sehr gut verkraftet.
Was sich jetzt so flott liest, war das Ergebnis einer länger durchdachten Backup-Strategie. Das habe ich nicht eben so nebenbei gemacht...
Aus den Datenverlusten im Zeitalter des "C64" und "Amiga" habe ICH jedenfalls sehr gut gelernt.
Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »SMD« (13.01.2016, 17:40)
Genau das ist der (entscheidende) Punkt. Geschäftliche Daten und Quell-/Projektdateien sind erfreulicherweise noch verhältnismäßig klein, wenn man nicht gerade einen Haufen RAW-Grafiken und Videos hat, die von existenzieller Bedeutung sind. Zeitweise war meine Paranoia so groß, dass ich sogar noch manuelle Kopien auf MO-Disks angefertigt hatte, bis ich herausgefunden habe, dass die 2,3GB-Laufwerke kaum noch zu haben sind. Die Medien sind ja noch leicht zu bekommen. Bei einem Laufwerksdefekt habe ich aber ebenso ein Problem...15 GByte ist für meine eigenen Zwecke aber zu wenig (kein Witz), 100 GByte ginge gerade eben so, 1 TByte wäre schön, ist mir aber ehrlich gesagt zu teuer (womit wir wieder bei der Wichtigkeit von Backups wären: Wie wichtig sind sie denn einem selber).
64 MBit sind heute etwas zu wenig. Außerdem braucht man einen Eprom-Brenner, der im Zeitalter von Flash inzwischen auch keine Massenware mehr ist, aber noch leicht selbst zu bauen ist. Und dann ein Modul als Schnittstelle, und dann noch ein Rechner, mit dem man das Ganze auslesen kann... Die klassischen Computer halten nicht ewig. Vielleicht ist das auch ein Grund, warum ich Fan von Adaptern (z.B. Retrode), Nachbauten/FPGAs und Emulatoren bin, wobei es natürlich auch hier Einschränkungen gibt.Nur mal ein Witz am Rande, da sieht man mal wieder Papier ist geduldig, darum lehne ich auch Steam ab. Punkt
Und noch eine extrem sichere Methode wäre, allerdings nicht ganz günstig aber extrem Langlebig, sieht man ja Atari VCS Module gehen immer noch, sich einen Eprom Brenner zu kaufen und mal schön die 64 Meg s überschreiten. Denke bei konstanter Raumtemperatur Staubfrei auf bewahrt im Schrank, könnte es über 100 Jahre halten, wenn nicht mehr.
1 Besucher