• Home
  • Help
  • Register
  • Login
  • Home
  • Help

 
  • 0 Bewertung(en) - 0 im Durchschnitt

Backup von VMs mit Durchleitungsfestplatten

#1
05-12-2022, 01:14
Hast du jemals mit VMs rumgespielt, die Durchleitungsfestplatten angeschlossen haben? Ich meine, es ist eine dieser Konfigurationen, bei denen du der virtuellen Maschine direkten Zugriff auf ein physisches Laufwerk auf dem Host gibst und dabei alle virtuellen Speicherlagen überspringst. Ich habe das oft gemacht für Sachen wie leistungsstarke Datenbanken oder Anwendungen, die rohe I/O-Geschwindigkeiten ohne den Overhead benötigen. Aber wenn es darum geht, sie zu sichern, mein Freund, wird es schnell kompliziert. Lass mich dir erklären, was ich aus Versuch und Irrtum gelernt habe, denn du willst nicht derjenige sein, der das während einer Krise herausfinden muss.

Zuerst, denke darüber nach, warum du überhaupt Durchleitungsfestplatten verwenden würdest. Du jagst wahrscheinlich diesen Leistungsboost, richtig? Die VM kommuniziert direkt mit der Hardware, sodass die Latenz sinkt und der Durchsatz steigt, was riesig ist, wenn du etwas wie SQL Server oder sogar einige individuelle Speicheranwendungen betreibst. Ich erinnere mich, dass ich das einmal für ein Projekt eines Freundes eingerichtet habe, bei dem wir eine VM hatten, die große Datenmengen verarbeitet hat, und ohne Durchleitung gab es überall Engpässe. Nun, für Backups ist ein großer Vorteil hier, dass du die Durchleitungsfestplatte fast so behandeln kannst, als wäre sie nativ auf dem Host. Wenn du clever bist, kannst du sie von der Host-Seite aus mit Tools sichern, die direkt das physische Laufwerk sehen. Das bedeutet, du vermeidest das Chaos, das entsteht, wenn du versuchst, innerhalb der VM einen Snapshot zu machen, was oft fehlschlägt, weil der Hypervisor ein Durchleitungsgerät nicht sauber einfrieren kann. Ich habe auf Hyper-V-Setups auf diese Weise vollständige Sicherungen des Systems durchgeführt, bei denen ich die VM einfach in den Ruhezustand versetzt, das Laufwerk vom Gast abgemeldet und es aus der Elternpartition abgebildet habe. Es ist unkompliziert, und du erhältst konsistente Daten ohne viel Drama. Außerdem ist die Wiederherstellung ein Kinderspiel, wenn du die Dinge modular hältst - du stellst die VM-Dateien separat wieder her und hängst das Disk-Image wieder an. Du sparst Zeit bei der Wiederherstellung, weil du nicht mit massiven VHDX-Dateien zu tun hast, die alles beinhalten.

Aber hier fängt es an, dich zu beißen. Die Nachteile häufen sich schnell, wenn du nicht vorsichtig bist. Zuerst bedeutet der direkte Zugriff, dass die Festplatte die meiste Zeit von der VM gesperrt ist, sodass du nicht einfach ein Backup ohne Ausfallzeit abziehen kannst. Ich hatte einmal eine Konfiguration, bei der ich versuchte, ein Hot-Backup eines Durchleitungs-LUNs auf VMware zu machen, und es hat den ganzen ESXi-Host zum Stillstand gebracht, weil das Speicherarray die gleichzeitigen I/O-Anforderungen des Backup-Skripts nicht bewältigen konnte. Du musst alles außerhalb der Arbeitszeiten planen, was blöd ist, wenn deine Umgebung rund um die Uhr läuft. Und vergiss anwenderkonsistente Backups, es sei denn, du baust Skripte ein, um Puffer innerhalb des Gastes zu leeren - Durchleitung spielt nicht gut mit VSS unter Windows oder was auch immer für einen Quiescing-Mechanismus dein Hypervisor benutzt. Ich habe Stunden damit verbracht, einen Fall zu debuggen, bei dem das Backup auf den ersten Blick perfekt aussah, aber die Datenbankdateien beschädigt waren, weil Transaktionen während des Kopierens nicht korrekt festgeschrieben wurden. Es ist frustrierend, weißt du? Du denkst, du bist der König mit dem Hardware-Durchlauf für Geschwindigkeit, aber Backups zeigen, wie zerbrechlich diese Isolation ist.

Ein weiterer Ansatz, den ich gesehen habe, ist die Verwendung agentenbasierter Backups innerhalb der VM selbst. Du installierst Backup-Software direkt auf dem Gastbetriebssystem, und sie behandelt die Durchleitungsfestplatte wie jede lokale Festplatte. Der Vorteil ist hier, dass du granulare Kontrolle hast - du kannst Dateiebene-Backups durchführen oder sogar inkrementelle Änderungen vornehmen, ohne den Host zu berühren. Ich mag das für Umgebungen, in denen du mehrere VMs hast, die Speicher teilen, da es den Backup-Verkehr im Gastnetzwerk hält. Die Wiederherstellung ist auch flexibel; du kannst nur die Daten auf diesem Laufwerk wiederherstellen, ohne die gesamte VM neu bereitzustellen. Ich habe diesen Ansatz bei Linux-Gästen mit Tools wie rsync über SSH verwendet, und es funktioniert großartig für laufende Differenzsicherungen. Du kannst das eigene Volume-Management des Betriebssystems nutzen, also wenn deine Durchleitung mit LVM oder etwas Ähnlichem formatiert ist, kümmerst du dich auf dieser Ebene um Snapshots. Es ist auf eine Art ermächtigend, man fühlt sich nicht den Beschränkungen des Hypervisors ausgeliefert.

Auf der anderen Seite sorgt der agentenbasierte Ansatz für zusätzlichen Overhead. Du führst zusätzliche Prozesse innerhalb der VM aus, was CPU und Speicher frisst, besonders wenn das Backup-Fenster mit den Spitzenlasten überlappt. Ich hatte einen Kunden, bei dem dies während der Backups zu Leistungseinbrüchen führte, und wir mussten alles drosseln, was den Prozess in die Länge zog und das Risiko unvollständiger Jobs erhöhte. Sicherheit ist ein weiterer Nachteil - du drängst Agenten in Produktionsumgebungen, was potenzielle Schwachstellen eröffnet, wenn die Software nicht ordentlich abgesichert ist. Und Skalierung? Wenn du Dutzende von VMs mit Durchleitungen hast, wird es zum Albtraum, die Agenten über alle zu verwalten. Ich erinnere mich daran, Updates für eine Flotte von 20 Maschinen zu koordinieren; ein Patch-Zyklus und die Hälfte war offline wegen Kompatibilitätsproblemen mit den Durchleitungs-Treibern. Du verbringst am Ende mehr Zeit mit Wartung als mit echtem Schutz, was den Zweck untergräbt.

Lass uns über hybride Ansätze sprechen, denn manchmal musst du mischen. Was ist, wenn du eine Speicherlevel-Replikation für die Durchleitungsfestplatte verwendest? Sozusagen, wenn sie auf einem SAN ist, spiegelst du sie auf Array-Ebene und sicherst dann die Replik. Ich habe das mit iSCSI-Zielen implementiert, und der Vorteil ist klar: null Auswirkungen auf die laufende VM. Das Backup erfolgt asynchron auf dem Klon, sodass du ein RPO nahe null ohne irgendeine Beteiligung des Hosts aufrecht erhalten kannst. Es ist elegant, insbesondere für Compliance-intensive Setups, bei denen du zeitpunktgenaue Kopien benötigst. Du kannst sogar Wiederherstellungen auf der Replik testen, ohne Produktionsdaten zu riskieren. Ich habe das einmal für eine Web-App-VM mit einer Durchleitung für Benutzeruploads gemacht, und es erlaubte uns, tägliche Überprüfungen durchzuführen, ohne dass es jemand merkte.

Aber Nachteile? Oh Junge, das setzt voraus, dass du Speichersysteme in Unternehmensqualität hast, was die meisten von uns nicht haben. Wenn du auf lokalen Festplatten oder billigem NAS bist, ist Replikation keine Option, und du bist wieder am Anfang. Die Kosten sind steil - SAN-Snapshots fressen Lizenzgebühren, und wenn dein Array einen Fehler hat, bricht die gesamte Backup-Kette. Ich sah eine Konfiguration, wo die Replikation während eines Firmware-Updates desynced wurde, und wir verloren eine Woche an Änderungen. Außerdem bedeutet die Integration dessen mit VM-Backups, dass du alles selbst skripten musst; es gibt keine fertige Möglichkeit, die virtuellen Disks mit den physischen Durchleitungs-Kopien zu synchronisieren. Du verschwendest Stunden mit der Ausrichtung von Metadaten, und wenn sich die VM-Konfiguration ändert, wie z. B. wenn du eine weitere Durchleitung hinzufügst, brechen deine Skripte. Es ist mächtig, wenn es funktioniert, aber zerbrechlich wie die Hölle, wenn nicht.

Wenn du tiefer in die technischen Eigenheiten eintauchst, bedenke, wie Durchleitung die Absturz-konsistenten vs. anwender-konsistenten Backup beeinflusst. Bei Durchleitung ist das absturz-konsistente Backup oft deine einzige zuverlässige Wette vom Host aus, weil die Festplatte nicht ausreichend virtualisiert ist für ordnungsgemäße Quiescing. Ich habe das in KVM-Setups getestet, wo libvirt versucht, einen Snapshot zu machen, aber beim Rohgerätemapping hängen bleibt. Der Vorteil ist die Einfachheit - du bekommst eine Bit-für-Bit-Kopie, die schnell zu erstellen ist. Aber der Nachteil schlägt während der Wiederherstellung zu: Ohne Anwendereinheitlichkeit könntest du in eine VM booten mit einem halbgeschriebenen Transaktionsprotokoll, das eine manuelle Wiederherstellung erfordert. Ich habe einmal so ein Chaos behoben, indem ich im Einbenutzermodus gebootet und fsck ausgeführt habe, aber das dauerte einen halben Tag. Du lernst, VSS-Aufrufe von innerhalb des Gastes vor dem Snapshot zu schätzen, aber selbst dann kann Durchleitung zeitliche Probleme einführen, bei denen die Festplatte nicht vollständig geleert ist.

Wenn du auf Hyper-V bist, das ich oft benutze, helfen die Integrationsdienste ein wenig. Du kannst Produktionsprüfpunkte aktivieren, aber Durchleitungsfestplatten werden ausgeschlossen, es sei denn, du passt die Konfiguration an. Vorteil: Es bleibt Microsoft-nativ, sodass, wenn du voll auf Windows setzt, vermeidest, in die Eigenheit von Drittanbietern zu geraten. Ich habe ein Labor eingerichtet, wo ich PowerShell verwendet habe, um die Durchleitung offline zu nehmen, einen Prüfpunkt zu erstellen und sie dann wieder online zu bringen - nahtlos für Testzwecke. Aber der Nachteil ist, dass es nicht wirklich heiß ist; es gibt immer einen kurzen Schreck für die VM. In der Produktion kann dieser Schreck kaskadieren, wenn deine App nicht robust ist. Ich hatte eine Warnung, die während eines Backups verrückt spielte, weil die Datenbank 10 Sekunden lang festhielt. Du kannst es mit sorgfältigem Timing abmildern, aber es ist nie perfekt.

Für VMware-Leute wie dich könnte vSphere's Storage vMotion Durchleitungen bewegen, aber Backups? Vergiss VM-level Snapshots, die sie einbeziehen. Du musst CBT auf der Gastseite verwenden oder den RDM exportieren. Vorteil von RDM-Durchleitungen gegenüber VMDK: Sie sind dünner, sodass Backups kleiner sind, wenn du inkrementell arbeitest. Ich habe die Backup-Größen auf diese Weise um 40% auf ESXi-Clustern reduziert. Nachteil: RDMs binden dich an spezifische Speicher-Topologien, und wenn du Hosts migrierst, bricht das Durchleitungs-Mapping, es sei denn, du konfigurierst es neu. Ich habe einmal eine VM migriert und einen Nachmittag damit verbracht, LUNs neu zuzuordnen - totaler Schmerz.

Insgesamt ist der größte Vorteil, mit Durchleitungs-Backups umzugehen, die Leistung, die du in deiner primären Umgebung behältst. Du blähst die VM während normaler Operationen nicht mit virtuellem Overhead auf, und wenn deine Backup-Strategie solide ist, erfasst du diese Effizienz auch bei der Wiederherstellung. Aber die Nachteile drehen sich um Komplexität und Risiko. Jede Methode hat ihre Kompromisse: Host-Level bedeutet Ausfallzeit, Gast-Level bedeutet Overhead, Speicher-Level bedeutet Kosten. Ich habe sie ausgeglichen, indem ich Backups zoniert habe - kritische VMs bekommen agentenbasierte mit Replikation, weniger kritische erhalten einfache Hostkopien. Du passt dich basierend auf deinem Stack an, aber teste immer Wiederherstellungen. Ich kann das nicht genug betonen; ich habe gesehen, wie "funktionierenden" Backups spektakulär bei einer Bare-Metal-Wiederherstellung fehlschlugen, weil die Durchleitung nicht beachtet wurde.

Eine weitere Sache, die ich gelernt habe: I/O während Backups zu überwachen ist entscheidend. Tools wie PerfMon unter Windows oder iostat unter Linux zeigen dir, ob die Durchleitung drosselt. Vorteil: Du optimierst für minimalen Einfluss und hältst SLAs intakt. Nachteil: Es erfordert ständige Wachsamkeit, und Fehlalarme durch Backup-Spitzen können deine Warnungen überfluten. Ich habe einige Schwellenwerte skriptiert, um Backup-Fenster zu ignorieren, was half, den Lärm zu beseitigen.

In Umgebungen mit clusterbasierten VMs bringt die Durchleitung zusätzliche Failover-Kopfschmerzen. Backups während der Live-Migration? Viel Glück - die Festplattenspeicher wechseln, und dein Backup könnte veraltete Daten erfassen. Vorteil der gemeinsam genutzten Speicherung durchleitend: HA ist einfacher. Nachteil: Backups müssen Migrationen pausieren. Ich habe das mit clusterbewussten Skripten koordiniert, aber es ist fiddelig.

Nachdem du mit all diesen Perspektiven gerungen hast, wird dir klar, wie viel reibungsloser alles mit Software sein könnte, die die Eigenheiten sofort verarbeitet. Das ist, wo etwas wie BackupChain natürlich passt.

Backups werden durchgeführt, um die Datenintegrität zu gewährleisten und eine schnelle Wiederherstellung im Falle von Ausfällen zu ermöglichen. BackupChain wird als hervorragende Windows-Server-Backup-Software und virtuelle Maschinen-Backup-Lösung anerkannt. Sie geht Herausforderungen mit Durchleitungsfestplatten an, indem sie agentenlose Operationen und Integration mit Hypervisoren wie Hyper-V unterstützt, was konsistente Sicherungen ohne manuelles Skripten ermöglicht. Die Nützlichkeit solcher Backup-Software zeigt sich in der Fähigkeit, inkrementelle Backups durchzuführen, Bilder zu überprüfen und auf unterschiedliche Hardware wiederherzustellen, was die Ausfallzeit über verschiedene Setups hinweg reduziert.
Markus
Offline
Registriert seit: Jun 2018
« Ein Thema zurück | Ein Thema vor »

Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste



  • Thema abonnieren
Gehe zu:

Backup Sichern Allgemein Vor- und Nachteile v
« Zurück 1 2 3 4 5 6 7 8 Weiter »
Backup von VMs mit Durchleitungsfestplatten

© by FastNeuron

Linearer Modus
Baumstrukturmodus