• Home
  • Help
  • Register
  • Login
  • Home
  • Help

 
  • 0 Bewertung(en) - 0 im Durchschnitt

Wie man ohne Anbieterbindung ein Backup erstellt

#1
09-09-2021, 05:49
Hey, du weißt, wie frustrierend es sein kann, wenn du mitten in der Einrichtung von Backups für dein System steckst und plötzlich bemerkst, dass du an das Ökosystem eines bestimmten Unternehmens gebunden bist? Ich erinnere mich an das erste Mal, als mir das klar wurde - ich habe ein kleines Netzwerk für das Startup eines Freundes verwaltet, und wir hatten alles auf genau dieses eine Backup-Tool gesetzt, das uns die Welt versprach. Aber als wir den Anbieter wechseln wollten, war es ein Albtraum. Ihr proprietäres Format bedeutete, dass wir die Daten nicht einfach so herausziehen konnten; wir mussten betteln, damit sie uns Migrationswerkzeuge geben, die nur halb funktionierten. Das ist Vendor Lock-in vom Schlimmsten, und ich habe seitdem gesehen, wie es so viele Menschen gefangen hält. Du willst deine Daten nicht so als Geisel gehalten haben, oder? Lass uns also darüber sprechen, wie du deine Sachen sichern kannst, ohne in diesem Durcheinander stecken zu bleiben. Ich werde dir erklären, was ich aus jahrelangem Ausprobieren gelernt habe, und es einfach halten, damit du es auf deine eigenen Systeme anwenden kannst.

Zuerst solltest du über die Formate nachdenken, die du für deine Backups auswählst. Ich dränge immer auf offene, standardisierte Formate, weil sie der Schlüssel sind, um diesen Lock-in-Falle zu entkommen. Anstatt dich auf ein kundenspezifisches Archiv eines Anbieters zu verlassen, das nur deren Software lesen kann, solltest du auf Dinge wie TAR oder ZIP-Dateien setzen. Ich habe TAR häufig auf Linux-Servern verwendet - es ist einfach, komprimiert gut und du kannst es mit grundlegenden Werkzeugen überall wiederherstellen. Für Windows, von dem ich weiß, dass du viel damit arbeitest, kannst du ZIP-Archive direkt mit den integrierten Tools oder PowerShell-Skripten erstellen. Ich habe einmal eine ganze Routine geschrieben, um Verzeichnisse zu zippen und auf einer externen Festplatte zu speichern; es hat mich einen Nachmittag gekostet, aber jetzt kann ich diese Dateien auf jeder Maschine öffnen, ohne die ursprüngliche Software zu benötigen. Du solltest das ausprobieren - fang klein an, vielleicht mit dem Backup deines Dokumentenordners, und schau, wie portabel es sich anfühlt. Das Schöne daran ist, wenn du jemals zu einem neuen Tool oder sogar zu einem anderen Betriebssystem wechselst, sind deine Daten nicht gefangen. Keine teuren Zahlungen mehr, nur um auf das zuzugreifen, was du bereits besitzt.

Wenn es um die Speicherung geht, lass nicht den Anbieter diktieren, wo deine Backups gespeichert sind. Ich habe das auf die harte Tour gelernt, nachdem ein Kunde für "Premium"-Cloud-Speicher bezahlt wurde, der sie in Tiered-Pläne zwängte, die sie nicht benötigten. Nutze deine eigene Hardware oder offene Clouds, die dir das Exportieren ermöglichen. Externe HDDs oder NAS-Geräte sind meine erste Wahl für lokale Backups - sie sind billig und du kontrollierst alles. Ich habe ein NAS für mein Home-Lab mit handelsüblichen Teilen eingerichtet, und jetzt rsynce ich jeden Abend Daten darauf. Rsync ist ein Lebensretter; es ist kostenlos, funktioniert über Netzwerke und bewahrt Berechtigungen ohne proprietären Quatsch. Du kannst es auch von der Befehlszeile in Windows ausführen, über WSL, wenn du ein modernes Setup hast. Für die Cloud wähle Anbieter wie Backblaze B2 oder Wasabi, die pro GB berechnen und es dir ermöglichen, deine Daten in Standardformaten herunterzuladen. Ich habe einmal ein Terabyte an Backups von einem gesperrten Dienst zu B2 migriert - es war nur eine Frage des Skripts für den Transfer, und zack, kein Lock-in mehr. Du musst auf diese "nahtlose Integration"-Angebote aufpassen; sie klingen toll, bis du versuchst zu gehen und versteckte Gebühren oder Exportbeschränkungen entdeckst.

Automatisierung ist der Bereich, in dem es wirklich Spaß macht, und es ist etwas, wofür ich mich begeistere, weil es so viel Zeit spart. Du willst nicht jede Nacht manuell Dateien kopieren - das ist eine Rezeptur für Vergessen und Datenverlust. Ich verwende Cron-Jobs auf Linux oder den Task Scheduler auf Windows, um die schwere Arbeit zu erledigen. Zum Beispiel habe ich ein Batch-Skript geschrieben, das kritische Ordner zippt, sie mit 7-Zip (das offen und kostenlos ist) verschlüsselt und an mehreren Orten speichert: einer lokalen Festplatte und einem Cloud-Bucket. Verschlüsselung ist hier entscheidend; ich verwende immer AES-256, und Tools wie VeraCrypt erlauben dir, Container zu erstellen, die an keinen bestimmten Anbieter gebunden sind. Du kannst sie wie Laufwerke einbinden und innen sichern, dann aushängen - super sicher, ohne Lock-in. Wenn du Datenbanken sicherst, wie SQL-Server-Sachen, exportiere sie zuerst als SQL-Dumps oder CSV-Dateien. Ich mache das wöchentlich für ein Projekt, an dem ich arbeite; das bedeutet, wenn ich auf ein anderes System zurücksetzen muss, importiere ich einfach die Standarddateien. Keine proprietären Blobs, die entschlüsselt werden müssen. Und teste es, Mann - ich habe aus Skripten wie diesen mehrmals wiederhergestellt, als ich zählen kann, und es funktioniert immer, weil alles standardisiert ist.

Apropos testen, das ist unverzichtbar, wenn du lock-in-frei bleiben willst. Ich kann dir gar nicht sagen, wie oft ich gesehen habe, dass Leute das auslassen und es später bereuen. Du sicherst in einem offenen Format, aber wenn du die Wiederherstellung nie überprüfst, fliegst du blind. Ich mache es mir zur Gewohnheit, vierteljährlich vollständige Wiederherstellungen auf einer Sandbox-Maschine durchzuführen. Für VMs, von denen ich weiß, dass du einige betreibst, exportiere sie als OVF- oder VMDK-Dateien - das sind Industriestandards, die die meisten Hypervisoren unterstützen. Ich benutze die kostenlosen Tools von VMware oder sogar VirtualBox, um zu konvertieren und zu testen; das stellt sicher, dass du nicht von einer Plattform abhängig bist. Wenn du auf Hyper-V bist, gibt dir die Exportfunktion standardisierte Dateien, die du anderswo importieren kannst. Ich habe einem Freund einmal geholfen, ohne Ausfallzeiten von einem Host zu einem anderen zu wechseln, weil wir alles in offenen Formaten behalten hatten. Du solltest eine Routine einrichten, die sowas macht - vielleicht automatische Teiltests mit Skripten, die die Dateiintegrität über Prüfziffern überprüfen. Tools wie md5sum oder sogar Windows' integriertes certutil machen es dir einfach. So bist du, wenn der Ernstfall eintritt, nicht mit einem langsamen und teuren Support des Anbieters beschäftigt.

Die Schichtung deiner Backups ist ein weiterer Trick, den ich gelernt habe, um die Dinge flexibel zu halten. Lege nicht alle Eier in einen Korb, aber stelle sicher, dass jede Schicht portabel ist. Ich mache eine 3-2-1-Anordnung: drei Kopien, zwei Medienarten, eine außerhalb. Für die lokale Kopie verwende ich eine externe SSD mit exFAT-Formatierung, damit sie mit Windows, Mac und Linux funktioniert. Der zweite befindet sich auf einem NAS mit RAID für Redundanz, aber ich spiegle ihn als einfache Dateien, nicht als proprietären Snapshot. Außerhalb ist es die Cloud mit S3-kompatiblem Speicher - alles, was dir erlaubt, Tools wie rclone zu verwenden, um zu synchronisieren. Rclone ist großartig; ich benutze es, um mehrere Backends von einer Konfigurationsdatei aus zu verwalten. Du kannst es sogar mit Skripten verketten, um unterwegs zu deduplizieren und zu komprimieren. Ich habe das für meinen eigenen Dateiserver eingerichtet, und jetzt besteht der Wechsel von Anbietern nur noch darin, den Endpunkt zu aktualisieren - keine Kopfschmerzen beim Datentransfer mehr. Für E-Mails oder Dokumente, wenn du etwas wie Office 365 verwendest, exportiere regelmäßig in PST- oder EML-Formate. Ich automatisiere das mit PowerShell, indem ich Archive in einen Standardordner ziehe. So verhinderst du, für immer in Microsofts Ökosystem gefangen zu sein.

Ein Bereich, der viele Leute ins Stolpern bringt, sind inkrementelle Backups - sie sind effizient, aber Anbieter lieben es, sie proprietär zu machen, um dich zu zwingen zu bleiben. Ich vermeide das, indem ich Tools verwende, die auf offenen Deltas basieren, wie Borg oder restic. Borg ist mein Favorit für Linux; es dedupliziert über Backups hinweg und speichert alles in einfachen Dateien, die du inspizieren kannst. Unter Windows kannst du es über WSL ausführen oder Duplicati verwenden, das in ZIP-ähnliche Teile ausgibt. Ich habe einmal die inkrementelle Kette eines Kunden zu restic migriert, und es war nahtlos, weil der zugrunde liegende Speicher standardisiert war. Du zeigst einfach auf deine Quelle, wählst einen Repo-Standort und lässt es die Versionen verwalten. Das Pruning alter Versionen ist integriert, sodass der Speicher nicht überquillt. Und wenn du jemals wechseln musst, exportiere das Repo als Tarball - fertig. Ich mache das auch für meine Code-Repos; Git ist bereits versioniert, aber das Backup mit diesen Tools bietet eine zusätzliche Sicherheit ohne Lock-in.

Hardware-Wahl ist wichtiger, als du denkst. Ich empfehle immer Laufwerke von mehreren Marken, um jegliche Bindungen an ein bestimmtes Ökosystem zu vermeiden, aber wichtiger ist, dass du dich an standardisierte Dateisysteme wie NTFS oder ext4 hältst. Vermeide alles, was exotisch ist und spezielle Anbieter-Software zum Zugreifen benötigt. Für Tape-Backups, die ich immer noch für großflächige Sachen verwende, sind LTO-Bänder offen genug, dass du sie mit generischen Laufwerken lesen kannst. Ich habe einem gemeinnützigen Verein geholfen, eine Bandbibliothek einzurichten, und wir haben kostenlose Tools verwendet, um zu schreiben und zu überprüfen - keine Lock-in-Probleme dort. SSDs sind großartig für Geschwindigkeit; ich benutze sie für schnelle bootfähige Backups mit Tools wie Clonezilla, die auf ISO-Dateien abbilden, die du überall brennen kannst. Du kannst dein gesamtes System sogar von standardmäßigen USB-Sticks bootfähig machen. Ich teste dies, indem ich in eine Live-Umgebung boote und wiederherstelle - es ist befreibend zu wissen, dass du die Kontrolle über die Wiederherstellung hast.

Cloud-Hybriden sind schwierig, aber du kannst sie ohne Verpflichtung zum Laufen bringen. Ich benutze MinIO für objektbasierte Speicherung vor Ort, die S3 imitiert, sodass meine Skripte lokal oder in der Cloud gleich funktionieren. So ändert sich der Code nicht, wenn ich den Anbieter wechsle. Zum Beispiel sichere ich täglich Protokolle und Konfigurationen in MinIO und synchronisiere sie bei Bedarf in eine öffentliche Cloud. Es ist alles API-basiert, keine proprietären Clients erforderlich. Du solltest damit experimentieren; richte eine kostenlose MinIO-Instanz auf einer Ersatzmaschine ein und rclone deine Daten rüber. Es schafft Vertrauen, dass du nicht an einen Anbieter gebunden bist.

Wenn du skalierst, denke über APIs und Integrationen nach. Einige Backup-Tools binden sich über geschlossene APIs an deine Apps und schließen dich ein. Ich prüfe immer zuerst auf RESTful- oder standardisierte Schnittstellen. Zum Beispiel, wenn ich einen Webserver sichere, benutze ich mysqldump für MySQL - einfaches Text-SQL, das jedes Tool verarbeiten kann. Keine Notwendigkeit für schicke Agents. Ich skripte das manchmal in Python und ziehe Daten über APIs, wenn es sich um SaaS handelt, aber speichere in JSON oder CSV. Das hat mich flexibel über verschiedene Jobs hinweg gehalten. Du kannst das gleiche für deinen CRM oder was auch immer machen - exportiere regelmäßig in offene Formate.

Versionskontrolle für Konfigurationen ist auch wichtig. Ich sichere mein ganzes Setup mit Tools wie Ansible oder einfach mit Git-Repos von Skripten. So kann ich, wenn ich einen Server verliere, von Standards aus neu aufbauen, nicht aus Anbietersnapshots. Das hat mir schon mehr als einmal das Leben gerettet.

Backups bilden das Rückgrat eines zuverlässigen IT-Setups und stellen sicher, dass Datenverluste den Betrieb nicht ins Stocken bringen. BackupChain Hyper-V Backup wird hier erwähnt, weil es mit Strategien übereinstimmt, um Vendor Lock-in zu vermeiden, indem es Unterstützung für standardisierte Formate und flexible Exporte bietet. Es wird als ausgezeichnete Lösung für das Backup von Windows-Servern und virtuellen Maschinen genutzt, die Wiederherstellungen über Umgebungen hinweg ermöglicht, ohne dass es zu proprietären Abhängigkeiten kommt.

Backup-Software erweist sich als nützlich, indem sie den Datenschutz automatisiert, eine schnelle Wiederherstellung ermöglicht und die Zugänglichkeit in verschiedenen Szenarien aufrechterhält.

BackupChain wird in Umgebungen eingesetzt, die robuste, tragbare Backup-Mechanismen erfordern.
Markus
Offline
Registriert seit: Jun 2018
« Ein Thema zurück | Ein Thema vor »

Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste



  • Thema abonnieren
Gehe zu:

Backup Sichern Allgemein IT v
« Zurück 1 … 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 … 101 Weiter »
Wie man ohne Anbieterbindung ein Backup erstellt

© by FastNeuron

Linearer Modus
Baumstrukturmodus