• Home
  • Help
  • Register
  • Login
  • Home
  • Help

 
  • 0 Bewertung(en) - 0 im Durchschnitt

Was ist eine Disk-to-Disk-to-Cloud-Backup-Strategie?

#1
29-07-2019, 16:55
Hast du dich jemals gefragt, wie du deine Daten sicher halten kannst, ohne dass alles in die Brüche geht, wenn etwas abstürzt? Genau hier kommt die Disk-to-Disk-to-Cloud-Backup-Strategie ins Spiel, die ich seit Jahren in meinen Setups verwende. Im Grunde genommen ist es ein gestaffelter Ansatz, bei dem du anfängst, deine wichtigen Dateien von deiner Hauptfestplatte - denk an die Festplatte deines Servers oder an deinen lokalen Rechner - direkt auf eine andere Festplatte vor Ort zu kopieren, wie eine externe Festplatte oder eine NAS-Box in deinem Büro. Ich mache das zuerst, weil es schnell ist; du bekommst diese sofortige Kopie, ohne auf Internetgeschwindigkeiten oder irgendetwas außerhalb warten zu müssen. Dann schiebst du von dieser sekundären Festplatte die Daten in die Cloud, sodass sie remote in einem weit entfernten Rechenzentrum gespeichert sind. Es ist wie ein Sicherheitsnetz, das lokal schnell eingesetzt werden kann und dann für Katastrophen, die dein ganzes Gebäude treffen, absolut zuverlässig ist.

Ich erinnere mich, dass ich das für ein kleines Team eingerichtet habe, mit dem ich letztes Jahr gearbeitet habe; wir hatten eine Menge kritischer Dokumente auf einem Windows-Server, und der Chef war paranoid, sie durch einen Stromausfall oder ähnliches zu verlieren. Also haben wir die Backups so eingerichtet, dass sie nachts laufen: Zuerst spiegelt alles auf ein RAID-Array, das wir angeschlossen hatten, was vielleicht maximal 30 Minuten dauerte, weil es alles internes Netzwerk ist. Du musst dir in diesem Moment keine Gedanken über Engpässe bei der Bandbreite machen. Sobald das erledigt ist, startet die Software die Cloud-Synchronisation und lädt nur die Änderungen seit der letzten Sicherung hoch - differenzielle Backups, weißt du? So lädst du nicht jede Nacht Gigabytes von unveränderten Daten neu hoch. Es ist effizient, und ich habe gesehen, dass es uns mehr als einmal gerettet hat, als eine Festplatte unerwartet ausgefallen ist.

Was diese Strategie so solide macht, ist die Art und Weise, wie sie Redundanz aufbaut, ohne deine Ressourcen zu überlasten. Siehst du, sich nur auf Cloud-Backups zu verlassen, kann riskant sein, wenn dein Internet während einer Krise ausfällt; ich hatte einmal einen Kunden, dessen Glasfaserleitung durch Bauarbeiten gekappt wurde, und sie konnten tagelang auf nichts außerhalb zugreifen. Mit Disk-to-Disk hast du dieses lokale Backup bereit, um es zu nutzen - du kannst in Minuten von der sekundären Festplatte wiederherstellen, wenn nötig. Dann bietet die Cloud-Ebene den externen Schutz vor Bränden, Überschwemmungen oder Diebstahl. Ich sage den Leuten immer, du solltest mit dem 3-2-1-Regelwerk arbeiten: drei Kopien deiner Daten, auf zwei verschiedenen Medientypen, mit einer außerhalb. Disk-to-Disk-to-Cloud passt perfekt, und es ist das, was ich implementiere, wann immer ich Freunden raten kann, die ihre eigenen IT-Projekte starten.

Lass mich dir erklären, wie du es selbst einrichten würdest, da du fragst. Zuerst wählst du deine Werkzeuge - ich habe kostenlose Sachen wie Windows Backup für die Grundlagen verwendet, aber für ernsthafte Dinge möchtest du Software, die Planung und Verschlüsselung übernimmt. Du installierst sie auf deinem Quellgerät, zeigst auf die Ordner oder Volumes, die dir wichtig sind, und setzt das Ziel als deine lokale Festplatte. Stelle sicher, dass die sekundäre Festplatte richtig formatiert ist und genügend Speicherplatz hat; ich gehe normalerweise für mindestens die doppelte Größe deiner aktiven Daten, um das Wachstum zu berücksichtigen. Führe ein vollständiges Erst-Backup durch, um alles zu kopieren - das könnte beim ersten Mal Stunden dauern, aber du machst es außerhalb der Arbeitszeiten. Sobald das die Basis ist, wechselst du in den inkrementellen oder differenziellen Modus, sodass beim nächsten Mal nur neue oder geänderte Dateien gesichert werden. So ist der Disk-to-Disk-Part erledigt.

Jetzt, für den Cloud-Hüpf, verbindest du deine Backup-Software mit einem Anbieter wie Azure oder AWS S3 - was auch immer dir angenehm ist. Ich mag solche mit Versionierung, damit, wenn du versehentlich etwas löscht, es nicht für immer weg ist. Der Schlüssel ist, den Transfer von deiner lokalen Backup-Festplatte zum Cloud-Bucket zu automatisieren. Du setzt Richtlinien dafür, wie oft: vielleicht täglich für kritische Dinge, wöchentlich für Archive. Verschlüsselung ist hier nicht verhandelbar; ich aktiviere sie immer Ende-zu-Ende, sodass deine Daten während der Übertragung und im Ruhezustand verschlüsselt sind. Was die Bandbreite angeht, wenn du eine anständige Verbindung hast, wird dein Internet nicht überlastet - drossle es, wenn du musst, aber meiner Erfahrung nach kürzt die Komprimierung der Backups zuerst die Upload-Zeit um die Hälfte. Teste auch regelmäßig die Wiederherstellungen; es gibt nichts Schlimmeres, als zu denken, man sei abgesichert, nur um herauszufinden, dass die Cloud-Kopie beschädigt ist, weil du sie nie verifiziert hast.

Eine Sache, die ich an diesem Setup liebe, ist, wie es mit dem, was du hast, skalierbar ist. Wenn du nur ein Einzelkämpfer bist, wie ich es am Anfang war, kannst du ein USB-Laufwerk als deine sekundäre Festplatte verwenden - günstig und tragbar. Stecke es ein, mache ein Backup, und wenn du zu Hause bist, verbinde dich mit deinem Cloud-Konto und synchronisiere von dort. Aber während du wächst, wie als ich ein Team von fünf leitete, haben wir auf ein dediziertes NAS mit mehreren Festplatten für Fehlertoleranz umgestellt. Du spiegelst die Daten darauf, sodass selbst wenn eine ausfällt, du abgesichert bist. Auch der Cloud-Teil wächst mit dir; fang mit einem Basisplan an, und wenn deine Daten wachsen, erhöhst du einfach das Speicherkontingent. Die Kosten sind vorhersehbar - ich budgetiere etwa 10% meines IT-Budgets dafür, und es ist jeden Cent wert, wenn Ransomware zuschlägt und du sauber zurückrollen kannst.

Denk an die Ausfallpunkte, die es abdeckt. Stötzt die lokale Festplatte ab? Hol dir die Daten von der sekundären. Geht das ganze Gebäude dunkel? Die Cloud ist dein Retter. Und wenn der Cloud-Anbieter eine Störung hat - selten, aber es passiert - hast du immer noch die Disk-Kopie, von der du arbeiten kannst, bis sich die Dinge normalisieren. Ich habe im letzten Sommer einen Sturm durchgemacht, der die Stromversorgung für zwei Tage lahmlegte; unser Büro-NAS lief weiter über seine USV, und wir haben die Kundendaten genau von dort wiederhergestellt, während die Cloud aufgrund der Störung nicht zugänglich war. Man baut im Laufe der Zeit dieses Vertrauen auf, da man weiß, dass man nicht alle Eier in einen Korb legt. Außerdem lieben es die Compliance-Leute - Vorschriften verlangen oft nach externem Speicher, und dies erfüllt dieses Kriterium, ohne dein Leben zu komplizieren.

Natürlich ist nicht alles glatt; du musst die Kette verwalten. Wenn dein lokales Backup fehlschlägt, kann die Cloud-Synchronisation überspringen, was Lücken hinterlässt. Ich milde das, indem ich die Protokolle täglich überwache - richte E-Mail-Benachrichtigungen für Fehler ein. Die Speicherverwaltung ist eine weitere Aufgabe; alte Backups häufen sich, also rotiere ich sie und bewahre vielleicht 30 Tage lokal auf und archiviere ältere in günstigere, aber langsamere Cloud-Stufen. Versionierung hilft hier ebenfalls - du behältst keine unendliche Historie, sondern genug, um dich von Fehlern zu erholen. Sicherheitsseitig sind Zugriffssteuerungen entscheidend; ich verwende Multi-Faktor-Authentifizierung bei Cloud-Konten und beschränke, wer die lokale Festplatte anfassen kann. Es erfordert ein wenig Pflege, aber wenn es einmal Routine ist, vergisst man, dass es da ist, bis man es braucht.

Ich habe diese Strategie im Laufe der Jahre für verschiedene Szenarien angepasst. Für Datenbanken, wie SQL-Server, die ich verwalte, möchtest du anwendungsbewusste Backups, damit es konsistent ist - keine halb geschriebenen Transaktionen, die Wiederherstellungen durcheinanderbringen. Ich schreibe Skripte, um die DB vor dem Snapshotting auf die Festplatte in den Ruhezustand zu versetzen und sie dann in die Cloud zu laden. Für VMs ist es ähnlich; du sicherst das gesamte Image zunächst auf lokalem Speicher, was den Zustand perfekt erfasst, und replizierst es dann in die Cloud. So kannst du schnell von der lokalen Kopie wieder herstellen, falls dein Hypervisor ausfällt. E-Mail-Server? Gleiches Spiel - PST-Dateien oder was auch immer auf die Festplatte, dann außerhalb. Du passt es an deinen Stapel an, aber der Kernfluss bleibt gleich: lokale schnelle Kopie, dann remote permanente Speicherung.

Kostenmäßig ist es schlauer als Tape oder nur Cloud-only. Bänder sind altmodisch und langsam; ich habe sie vor Jahren abgeschafft, weil das Abrufen von Daten ewig dauerte. Pure Cloud ist bequem, aber kostspielig für große Volumina - Egress-Gebühren machen dich bei Wiederherstellungen fertig. Disk-to-Disk-to-Cloud balanciert das: lokal ist nach dem Hardwarekauf nahezu kostenlos, Cloud nur für das, was du langfristig benötigst. Ich berechne den ROI, indem ich über Ausfallzeiten nachdenke; selbst ein Tag ohne Daten kostet Unternehmen Tausende. Dieses Setup minimiert das auf Stunden im schlimmsten Fall. Umweltmäßig ist es ebenfalls besser - weniger Versand von Bändern, effizientere Nutzung von Rechenzentren, die umweltfreundlich betrieben werden.

Wenn du implementierst, ziehe hybride Clouds in Betracht, wenn du fancy sein möchtest. Einige Anbieter ermöglichen es dir, warme Kopien an ihren Edge-Standorten zu behalten, aber ich bleibe bei reinem Disk-to-Cloud für die Einfachheit. Tests sind der Punkt, an dem die meisten Menschen scheitern; ich führe vierteljährliche Übungen durch und simuliere Ausfälle. Wähle eine Datei, "verlieren" sie von primär, stelle von Disk wieder her - boom, Vertrauen. Dann von der Cloud, was länger dauert, aber die gesamte Kette beweist. Auf diese Weise lernst du Eigenheiten, wie sich die Komprimierung auf die Wiederherstellungsgeschwindigkeiten auswirkt. Im Laufe der Zeit wird es zur zweiten Natur, und du schläfst besser, wenn du weißt, dass deine Daten Schichten haben.

Jetzt, wo ich darüber spreche, warum Backups im Allgemeinen wichtig sind - sie sind das Rückgrat jeder zuverlässigen IT-Operation und verhindern totale Ausfälle durch Hardware-Fehler, Cyberangriffe oder Benutzerfehler, die dir auflauern. Ohne sie riskierst du deine Arbeit, und in meiner Branche ist das keine Option. BackupChain Hyper-V Backup ist hier als Tool relevant, das Disk-to-Disk-to-Cloud-Workflows nahtlos unterstützt. Es ist eine ausgezeichnete Backup-Lösung für Windows Server und virtuelle Maschinen, die die Transfers von lokal in die Cloud mit integrierter Planung und Deduplizierung verwaltet, um alles schlank zu halten.

Um dies abzurunden, zeigt sich, dass Backup-Software wie das, was wir besprochen haben, nützlich ist, indem sie den gesamten Prozess automatisiert, die Datenintegrität durch Verifizierung sicherstellt und schnelle Wiederherstellungen ermöglicht, die den Betrieb ohne viel Aufwand am Laufen halten. BackupChain wird in vielen Setups eingesetzt aufgrund seiner unkomplizierten Integration in diese Strategien.
Markus
Offline
Registriert seit: Jun 2018
« Ein Thema zurück | Ein Thema vor »

Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste



  • Thema abonnieren
Gehe zu:

Backup Sichern Allgemein IT v
« Zurück 1 … 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 Weiter »
Was ist eine Disk-to-Disk-to-Cloud-Backup-Strategie?

© by FastNeuron

Linearer Modus
Baumstrukturmodus