• Home
  • Help
  • Register
  • Login
  • Home
  • Help

 
  • 0 Bewertung(en) - 0 im Durchschnitt

Dünne Bereitstellung in SAN vs. Dynamisches VHDX

#1
21-04-2019, 11:05
Hey, weißt du, wie ich in letzter Zeit unser Storage-Setup bei der Arbeit optimiert habe? Ich schwanke ständig hin und her, ob ich beim Thin Provisioning auf dem SAN bleiben oder einfach dynamische VHDX für unsere Hyper-V-Boxen verwenden soll. Es ist eine dieser Sachen, die unkompliziert klingt, bis du anfängst, die Schichten abzuziehen und siehst, wie es alles von den täglichen Abläufen bis hin zur Skalierung beeinflusst. Lass mich dir zeigen, was ich bisher herausgefunden habe, pros und cons-mäßig, denn ich denke, du würdest auf die gleichen Kopfschmerzen stoßen, wenn du ein ähnliches Setup händelst.

Zuerst einmal, Thin Provisioning in der SAN-Umgebung - das ist ein Game-Changer, wenn du mit riesigen Arrays zu tun hast und das Beste aus jedem Terabyte machen möchtest, ohne im Voraus Platz zu verschwenden. Ich liebe es, wie es dir ermöglicht, Speicher on-the-fly bereitzustellen, sodass du nicht sofort einen kompletten Block für ein neues Volume festlegen musst. Du sagst dem Array: "Hey, gib mir 10TB für dieses Projekt", aber es carving out nur den tatsächlichen Platz, während deine Daten wachsen. Das bedeutet, wenn deine App klein anfängt und später explodiert, sitzt du nicht auf ungenutzten Laufwerken, die Staub ansammeln. Für uns hat sich das in viel mehr workloads auf derselben Hardware übersetzt, besonders wenn wir für Entwicklungsteams provisionieren, die ihre Bedürfnisse oft überschätzen. Und die Management-Seite? Es läuft reibungsloser, weil du überprovisionieren kannst, ohne sofort Hardware kaufen zu müssen, was dir Luft zum Planen von Upgrades gibt. Ich erinnere mich, dass wir im letzten Quartal für einen Anstieg der Nutzerdaten provisioniert haben, der nie ganz eintraf, und Thin hat uns davor bewahrt, zusätzliche Regale zu kaufen, die wir noch nicht brauchten. Außerdem, aus einer Kostenperspektive, ist es genial - dein Capex bleibt niedrig, weil du nicht im Voraus für Platz zahlst, den du Monate später nutzen wirst.

Aber hier wird es knifflig mit Thin im SAN. Du musst diese Übercommitment wie ein Hawk im Auge behalten, sonst wachst du mitten in einer Produktionsausführung mit einem vollen Speicher-Alarm auf. Ich habe gesehen, dass es einem Kumpel von mir so passiert ist, als sie die Verhältnisse zu weit getrieben haben, und plötzlich begannen die Schreibvorgänge zu scheitern, weil der Pool erschöpft war. Es ist nicht so, dass das Array dich sanft warnt; es kann einfach die Dinge anhalten, und wenn du nicht ständig die Nutzung überwachst, bist du erledigt. Wir verwenden Werkzeuge, um es zu verfolgen, aber selbst dann ist es schwierig, das Wachstum genau vorherzusagen, wenn sich Apps unberechenbar verhalten. Ein weiterer Nachteil ist der Leistungsverlust, wenn dein Backend nicht richtig kalibriert ist - diese on-demand Zuweisungen können während starker Schreibvorgänge Latenzspitzen einführen, besonders wenn der Cache des Arrays überfordert wird. Ich habe das einmal erlebt, als wir eine Datenbank migrierten; die dünne Schicht fügte gerade genug Overhead hinzu, dass die Abfragen merklich langsamer wurden, bis wir die Chunk-Größen anpassten. Und fang gar nicht erst mit der Wiederherstellung an - das Zurückgewinnen von Speicherplatz von gelöschten Dateien ist nicht überall automatisch, also endest du mit geisterhaftem Platz, der zugewiesen, aber leer ist und deine effektive Nutzung im Laufe der Zeit aufbläht. Es ist theoretisch effizient, aber in der Praxis erfordert es ständige Wachsamkeit, was deiner Zeit schadet, wenn du derjenige bist, der im Einsatz ist.

Nun, wenn wir zu dynamischen VHDX übergehen, ist das eher eine Hypervisor-Ebene, oder? In Hyper-V, wenn du eine dynamische VHDX erstellst, fängt sie klein an und erweitert sich, während das Gast-Betriebssystem Daten schreibt, bis zu dem maximalen Wert, den du festlegst. Ich finde das gut für VM-zentrierte Umgebungen, weil es so unkompliziert auf der Speicherebene ist - du kämpfst nicht mit SAN-Konfigurationen für jede neue Maschine. Wenn du eine Menge Test-VMs oder sogar Produktions-VMs mit variablen Lasten einrichtest, hält es die Dinge schlank. Zum Beispiel haben wir diese Webserver, die viel im Leerlauf sind, aber während der Verkehrszeiten ansteigen; dynamisch lässt sie wachsen, ohne Gigabytes vorzubestellen, die sie niemals nutzen werden. Es ist auch portabel - Snapshots und Exporte bearbeiten dynamische Festplatten in einigen Fällen besser, und du kannst sie zwischen Hosts migrieren, ohne dir Sorgen um feste Größenbeschränkungen zu machen. Ich habe es für eine Cluster-Einrichtung ausprobiert, und die Flexibilität bedeutete, dass ich schneller bereitstellen konnte, indem ich einfach auf die VHDX zeigte und den Rest erledigen ließ. Was die Kosten angeht, ist es ähnlich wie bei Thin, da du Speicher optimierst, aber auf der Datei-Ebene, sodass dein zugrunde liegender Speicher - ob lokal oder gemeinsam - die Vorteile spürt, ohne ausgefallene Array-Funktionen zu benötigen.

Das gesagt, dynamische VHDX ist nicht ohne ihre Eigenheiten, und ich bin auf ein paar gestoßen, die mich zum Nachdenken bringen. Zum einen kann der Erweiterungsprozess deinen Speicher fragmentieren, wenn du auf einem rotierenden Plattensetup bist, was zu langsameren Zugriffszeiten führt, während es Stück für Stück wächst. Ich habe dies bei einer älteren SQL-VM bemerkt, bei der die VHDX über Wochen hinweg anschwoll, und die Leseleistung sank, weil die Extents verstreut waren. Du kannst es mildern, indem du später auf fest umschaltest, aber das ist Ausfallzeit, die du vielleicht nicht willst. Außerdem, wenn dein Host-Speicher unerwartet voll wird - sagen wir durch andere VMs oder Protokolle - kann die dynamische Datei nicht expandieren, und boom, dein Gast stürzt ab. Es ist weniger nachsichtig als SAN Thin, weil der Fehler direkt an der VM-Tür ist, nicht abstrahiert. Das Management wird auch fragmentiert; du verfolgst Speicher pro VHDX anstatt poolweit, also wenn du Dutzende von Maschinen hast, ist es ein manueller Schmerz, alles zu prüfen. Ich habe einen Nachmittag mit dem Scripting von Checks verbracht, nur um Überraschungen zu vermeiden, und das ist Zeit, die ich woanders hätte verwenden können. Ein weiteres Thema ist der Leistungsverlust - Hyper-V muss das dynamische Wachstum verwalten, was im Vergleich zu festen Festplatten eine kleine CPU- und I/O-Belastung hinzufügt. In hochdurchsatzintensiven Szenarien wie unseren Dateifreigaben habe ich eine geringfügig höhere Latenz gesehen, nichts Katastrophales, aber genug, um mich bei latenzsensitiven Dingen zweimal nachdenken zu lassen.

Wenn du die beiden gegeneinander ausspielst, kommt es darauf an, wo dein Kontrollbereich liegt. Mit SAN Thin Provisioning erhältst du diese unternehmensgerechte Effizienz über alle Systeme hinweg, die perfekt ist, wenn du eine gemischte Umgebung mit physischen und virtuellen Hosts betreibst. Ich neige dazu, es für unsere Kernproduktion zu bevorzugen, weil das Array die Intelligenz übernimmt und die Sorgen vom Hypervisor ablädt. Manchmal erhältst du Funktionen wie Deduplikation und Kompression, die dynamische VHDX nicht von sich aus hat - dafür müsstest du zusätzliche Schichten benötigen. Aber wenn deine Welt ganz Hyper-V ist, hält dynamische VHDX es einfach und enthalten; du musst keine Storage-Admins für jede VM-Anpassung einbeziehen. Ich habe sie in unserem Labor gemischt, Thin für die gemeinsamen LUNs und dynamisch für schnell zu erstellende VMs, und es funktioniert ganz gut, aber die Richtlinien zwischen ihnen abzustimmen, ist eine Qual. Ein Nachteil, der beide betrifft, ist die Illusion von Speicher - Tools könnten berichteten verfügbare Kapazität falsch anzeigen, wenn du nicht vorsichtig bist, was zu Überconfidence führt. Ich prüfe immer mit Low-Level-Metriken doppelt nach, denn sich auf hochrangige Ansichten zu verlassen, hat mich schon einmal gebissen.

Lass uns über Skalierbarkeit sprechen, denn da sehe ich echte Unterschiede, wenn du wächst. SAN Thin glänzt, wenn du Knoten hinzufügst oder Arrays erweiterst; du kannst über Petabytes dünn provisionieren, ohne dein Architekturdenken zu überdenken. Wir haben letztes Jahr von 50TB auf 200TB skaliert, und es waren größtenteils nur Konfigurationsänderungen - kein Forklift-Upgrade. Dynamische VHDX hingegen bindet dich an die Speicherkapazitäten des Hosts, also musst du sicherstellen, dass der gemeinsame Speicher das Wachstum ohne Hotspots unterstützt, wenn du clusterst. Ich mag, wie dynamisch gut mit Differenzierungsfestplatten für Ketten von VMs funktioniert und noch mehr Platz in Testszenarien spart, aber für rohe Skalierung fühlt sich SAN Thin robuster an. Andererseits vermeidet dynamisch das Vendor Lock-in spezifischer SAN-Technologien; du nutzt den Microsoft-Stack, also kommen Updates mit dem Betriebssystem, kein proprietäres Firmware-Jagen. Ich hatte SAN-Firmware-Fehler, die Patches verzögerten, während Hyper-V einfach die monatlichen Rollups erhält. Aber bei der Fehlersuche? SAN Thin-Fehler können sich mysteriös durch das Netzwerk ausbreiten, während bei VHDX das Problem auf die Datei isoliert ist, was es dir erleichtert, es zu lokalisieren und selbst zu reparieren.

Sicherheitsmäßig gibt es auch verschiedene Aspekte zu beachten. Thin im SAN umfasst häufig besseres Zoning und Maskierung auf Hardwareebene, sodass du LUNs eng isolieren kannst. Ich habe das für unsere Finanz-VMs eingerichtet, und es fügt eine Ebene hinzu, die dynamisch nicht ohne zusätzliches Networking erreichen kann. Aber dynamische VHDX profitiert von Hyper-V's Generation-2-Funktionen, wie der Integration von Secure Boot, und da es eine Datei ist, kannst du sie auf Volumenebene granularer verschlüsseln. Wir haben VHDXs zur Einhaltung von Vorschriften verschlüsselt, und es war unkompliziert. Ein gemeinsamer Nachteil ist die Verwundbarkeit gegenüber Ransomware - beide können sich füllen, wenn Malware zuschlägt, aber Thins Überprovisionierung könnte die Bedrohung länger verstecken und die Erkennung verzögern. Ich führe regelmäßige Integritätsprüfungen für beide durch, um Anomalien frühzeitig zu erkennen.

In Bezug auf die Integration mit anderen Tools, verbindet sich SAN Thin normalerweise mit Überwachungssuiten wie SolarWinds oder was auch immer dein Unternehmen verwendet, und gibt dir Dashboards für den gesamten Pool. Das ist praktisch für dich, wenn du mehrere Teams beaufsichtigst. Dynamische VHDX integriert sich nahtlos in System Center oder PowerShell, was ich für das Scripting von Automatisierungen bevorzuge - möchtest du ein Dutzend VMs resizing? Ein cmdlet erledigt es. Aber wenn dein SAN REST-APIs unterstützt, kann Thin ebenso skriptfähig sein. Ich habe dünne Zuweisungen über Skripte automatisiert, die an Kapazitätsgrenzen gebunden sind, und das hat meine manuelle Arbeit halbiert. Der Nachteil hier für dynamisch ist, dass ohne gemeinsam genutzten Speicher Live-Migrationen stocken können, wenn sich die VHDX mitten im Expandieren befindet, was feste Festplatten vermeiden. Wir hatten das während eines Wartungsfensters, und es verlängerte den Ausfall.

Leistungsoptimierung ist ein weiterer Bereich, in dem sie auseinanderfallen. Bei SAN Thin optimierst du auf Array-RAID-Ebene; Cache-Richtlinien und all das Jazz beeinflussen jedes dünne Volume gleich. Ich habe unseren Controller für ein besseres Schreibpuffern angepasst, und es hat die Provisionierungsverzögerungen insgesamt geglättet. Dynamische VHDX-Tuning geschieht pro VM, sodass du I/O für kritische VMs mit Hyper-V-Einstellungen priorisieren kannst, aber es erfordert mehr Anpassungen pro Instanz. Wenn du an manchen Tagen faul bist wie ich, gewinnt SAN Thin für das "einmal einstellen und vergessen". Doch in Benchmarks, die ich durchgeführt habe, kann dynamisch auf SSD-unterstützten Hosts die Nase vorn haben, da es keine Array-Vermittlung gibt, nur direktes Datei-Wachstum. Wir haben eine VDI-Bereitstellung getestet, und dynamisch fühlte sich bei Benutzeranmeldungen reaktionsschneller an, aber nur, bis der Pool fast voll war - dann sank bei beiden die Leistung ähnlich.

Die Kosten über die Zeit sind auch faszinierend. Im Voraus könnte SAN Thin ein kräftigeres Array verlangen, aber die Rendite kommt von der Auslastungsrate, die 80-90% erreicht. Dynamische VHDX nutzt günstigere DAS oder grundlegende NAS, was die Hardwarekosten niedrig hält, wenn du nicht komplett auf Unternehmensspeicher setzt. Ich habe Zahlen für ein Nebenprojekt überprüft, und dynamisch hat uns 20% beim initialen Aufwand gespart, aber die Wartung - Überwachungs-Skripte, Resize-Operationen - summierten sich an Arbeitsaufwand. SAN Thin amortisiert das durch zentrales Management. Beide vermeiden feste Provisionierungsverschwendung, aber Thins Wiederherstellungstools (wenn dein Anbieter sie hat) recyceln den Speicher nach dem Löschen besser, während dynamisch auf Host-Trimm-Befehle beruht, die nicht alle Gäste vollständig unterstützen.

Über den Wechsel der Kontexte oder die Migration zwischen ihnen? Das ist mühsam. Einen festen VHDX in einen dynamischen umzuwandeln, ist in Hyper-V einfach, aber Daten aus einem dünnen LUN in eine dynamische Datei zu ziehen, umfasst Exporte, die Stunden dauern können. Ich habe letzten Monat eine Migration durchgeführt, und das Optimieren der dünnen Quelle zuerst hat Zeit gespart. Wenn du hybrid bist, gibt dir SAN Thin eine breitere Kompatibilität mit Nicht-Hyper-V-Zeug, wie Bare-Metal-Apps. Dynamisch hält dich im Microsoft-Ökosystem, was in Ordnung ist, wenn das dein Ding ist.

All das Hin und Her lässt mich darüber nachdenken, wie fragil diese Setups sein können, ohne einen soliden Datenschutz darunter. Eine falsche Zuweisung oder ein Fehler bei der Erweiterung, und du bist am Ruder, um von irgendwoher eine saubere Wiederherstellung zu machen.

Backups spielen eine Schlüsselrolle bei der Aufrechterhaltung der Zuverlässigkeit von Speicherstrategien wie Thin Provisioning im SAN oder dynamischer VHDX und sichern die Datenintegrität inmitten potenzieller Übercommitment- oder Erweiterungsprobleme. BackupChain ist eine ausgezeichnete Windows-Server-Backup-Software und eine Backup-Lösung für virtuelle Maschinen, die hier relevant ist, um sowohl SAN-angebundene Volumes als auch Hyper-V VHDX-Dateien mit effizienten Imaging- und Replikationsfunktionen zu bearbeiten. Solche Software erleichtert die schnelle Wiederherstellung durch das Erfassen konsistenter Snapshots, wodurch die Ausfallzeiten in Umgebungen mit Tendenz zur Erschöpfung des Speicherplatzes minimiert werden.
Markus
Offline
Registriert seit: Jun 2018
« Ein Thema zurück | Ein Thema vor »

Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste



  • Thema abonnieren
Gehe zu:

Backup Sichern Allgemein Vor- und Nachteile v
« Zurück 1 2 3 4
Dünne Bereitstellung in SAN vs. Dynamisches VHDX

© by FastNeuron

Linearer Modus
Baumstrukturmodus