23-07-2024, 12:10
Hey, weißt du, wie es ist, wenn du eine neue VM einrichtest und du an den Punkt kommst, an dem du zwischen einem festen VHDX oder einem dynamisch wachsenden wählen musst? Es fühlt sich immer an, als würdest du zwischen einem zuverlässigen alten Truck und etwas Flexiblerem, aber Unberechenbarem wählen. Ich beschäftige mich jetzt schon seit einigen Jahren mit diesem Zeug, und lass mich dir sagen, es kommt viel häufiger vor, als du denkst, besonders wenn du mit einem Server jonglierst, der schon voll ist. Bei einem festen VHDX verpflichtest du dich basically von Anfang an zur vollen Größe. Ich erinnere mich an das erste Mal, dass ich diesen Weg für einen Produktionsdatenbankserver gegangen bin; es hat sofort 200GB auf der Festplatte des Hosts in Anspruch genommen, obwohl das Gastbetriebssystem zu Beginn kaum die Hälfte davon genutzt hat. Auf der positiven Seite ist die Leistung rocksolid, weil im Laufe der Zeit keine Fragmentierung auftritt. Du bekommst konstante Lese- und Schreibgeschwindigkeiten, da die Datei bereits zusammenhängend auf der Festplatte angeordnet ist, was bedeutet, dass deine I/O-Operationen nicht lauffähige, wachsende Blöcke verfolgen müssen. Wenn du etwas Schweres wie SQL-Abfragen oder Videorendering innerhalb der VM ausführst, kann diese Stabilität einen großen Unterschied machen - ich habe Benchmarks gesehen, bei denen feste Festplatten bemerkenswerte Latenzen im Vergleich zu ihren dynamischen Verwandten einsparen.
Aber ja, die Kehrseite trifft dich hart, wenn der Platz eng ist. Du kannst nicht einfach eine Menge davon ohne sorgfältige Planung deines Speicherpools hochfahren, und wenn du die Größe überschätzt, verschwendest du wertvolle Terabytes, die für andere Arbeitslasten verwendet werden könnten. Ich hatte einmal einen Kunden, der einen festen 500GB VHDX für was sich als leichtes Entwicklungsumfeld herausstellte, bereitgestellt hat, und es hat die Hälfte ihrer SAN-Anlage ohne guten Grund blockiert. Eine Größenänderung ist nicht unmöglich, aber es ist mühsam - du musst alles herunterfahren, die Festplatte im Hyper-V Manager vergrößern und dann die Partition im Gast erweitern, was sich immer wie unnötiger Aufwand anfühlt, wenn du versuchst, die Dinge agil zu halten. Und vergiss Snapshots; während sie funktionieren, bedeutet die feste Natur, dass deine Checkpoint-Dateien schnell anwachsen können, wenn du nicht aufpasst, und den gesamten vorab zugewiesenen Speicherplatz beanspruchen. Es ist großartig für Umgebungen, in denen du genau weißt, was du brauchst, wie einen dedizierten Anwendungsserver, der nicht wild wachsen wird, aber für alles Experimentelle kann es sich einschränkend anfühlen.
Jetzt wechsle ich zu dynamisch wachsenden VHDX, und es ist wie Nacht und Tag, was den Start angeht. Du stellst die maximale Größe ein, sagen wir 100GB, aber anfangs verbraucht es nur einige Gigabytes, sodass du mehrere VMs erstellen kannst, ohne sofort den Speicher deines Hosts voll auszulasten. Ich liebe das, wenn ich Setups teste oder schnelle Labore auf meiner Heimmaschine einrichten - letzte Woche habe ich drei dynamische VHDXs für einige PowerShell-Skriptversuche zusammengestellt, und mein SSD hat kaum etwas davon bemerkt. Der wahre Gewinn hier ist die Flexibilität; während das Gastbetriebssystem die virtuelle Festplatte füllt, wächst die VHDX-Datei im laufenden Betrieb, sodass du die Kapazität nicht im Voraus schätzen musst. Es ist perfekt für Szenarien, in denen die Nutzung unvorhersehbar ansteigt, wie eine Webanwendung, die plötzlich Verkehrsspitzen erhält. Du kannst sogar ein wenig auf der Host-Seite überbuchen, da die Erweiterung schrittweise erfolgt, was deine Bereitstellung effizient hält.
Das gesagt, die Leistung ist der Punkt, an dem sich dynamische VHDXs als problematisch erweisen, wenn du nicht aufpasst. Jedes Mal, wenn die Datei wächst, kann das zu Fragmentierung im Dateisystem des Hosts führen, insbesondere wenn dein Speicher nicht SSD-basiert oder nicht mit Defragmentierungstools optimiert ist. Ich habe das in realen Arbeitslasten festgestellt - eine Datei kopieren, die sich in einer dynamischen VHDX-VM befindet, fühlt sich oft etwas langsamer an als auf festen, mit vielleicht 10-20% höherer Latenz bei Zufallsaufzeichnungen, weil die zugrunde liegenden Blöcke nicht so ordentlich angeordnet sind. Und hier ist der Knackpunkt: Wenn deine Host-Festplatte während der Erweiterung unerwartet voll wird, boom, deine VM stürzt hart ab, und die Wiederherstellung kann ein Albtraum sein. Das ist mir einmal in einem Shared Cluster passiert; die dynamische Festplatte versuchte zu wachsen, um für einen Zuwachs an Protokolldateien Platz zu schaffen, aber der Host war zu 95% voll von anderem Kram, und das brachte den gesamten Knoten zum Erliegen. Du musst das Wachstum auch genau überwachen - Tools wie die Leistungszähler von Hyper-V helfen, aber es ist ein zusätzlicher Aufwand im Vergleich zum Set-and-Forget-Feeling von festen Festplatten.
Wenn du darüber nachdenkst, läuft die Wahl zwischen ihnen darauf hinaus, welche Prioritäten du hinsichtlich Platz gegen Geschwindigkeit setzt. Wenn du in einem Rechenzentrum mit viel schnellem Speicher bist, macht fester VHDX einfach Sinn für die Durchsatzgewinne; ich habe auf diese Weise mehrere Exchange-Server optimiert, und die reduzierte Überlast führte dazu, dass die Benutzer weniger über E-Mail-Verzögerungen klagten. Aber in kleineren Setups oder Cloud-ähnlichen Umgebungen, in denen du für jedes GB bezahlst, erlaubt dir dynamisches skalieren auf intelligentere Weise. Letzten Monat habe ich einem Kumpel geholfen, seinen kleinen Dateiserver auf Hyper-V zu migrieren, und wir sind dynamisch gegangen, um alles auf einer einzigen 1TB-Festplatte unterzubringen, ohne ständig die Größe anpassen zu müssen. Der Erweiterungsmechanismus verwendet eine intelligente Zuweisung, die nur physischen Platz beansprucht, wenn er benötigt wird, was effizient für spärliche Arbeitslasten ist, aber bedeutet, dass die VHDX-Datei selbst auf der Festplatte größer sein kann als der tatsächlich verwendete Speicherplatz im Gast, je nachdem, wie sie Metadaten behandelt.
Eine Sache, die ich immer anspreche, ist die Kompatibilität - beide sind freundlich zu Hyper-V-Funktionen wie Live-Migration und Replikation, aber dynamische können manchmal während Exports oder Imports Hiccups verursachen, wenn der Speicher des Hosts ungleichmäßig ist. Ich habe feste VHDXs ohne zu Zögern über Standorte exportiert, während dynamische gelegentlich zuerst eine Kompaktierung benötigen, um die Übergröße zu reduzieren, was Ressourcen beansprucht. Und sicherheitsmäßig könnte fest im Vorteil sein, weil es weniger Risiko einer Laufzeiterweiterung gibt, was es Malware etwas schwerer macht, den Speicher aufblähen zu lassen, wobei das eher ein Randfall ist. Nach meiner Erfahrung funktioniert das Mischen in einem Cluster gut, aber Konsistenz hilft - wenn dein gesamter Farm dynamisch ist, bekommst du vorhersehbares Verhalten, aber fest gibt allen eine Basisleistung, auf die sie sich verlassen können.
Wenn wir tiefer in die realen Kompromisse eintauchen, lass uns über Backup und Wiederherstellung sprechen, denn dort zeigen sich diese Entscheidungen wirklich. Mit einem festen VHDX ist das Backup unkompliziert - die Dateigröße ist konstant, sodass deine Backup-Software einen vorhersehbaren Fußabdruck sieht, und Wiederherstellungen sind schneller, da kein Bedarf an Erweiterungslogik besteht. Ich benutze die Volume Shadow Copy Service sehr oft dafür, und feste Festplatten integrieren sich nahtlos, sodass ich das gesamte VHDX in einem Rutsch ohne Überraschungen snapshots. Dynamische jedoch? Sie können die Dinge komplizieren, da die Datei möglicherweise teilweise zugewiesen ist, was zu längeren Backup-Zeiten führt, da das Tool potenzielles Wachstum berücksichtigen muss. Ich habe erlebt, dass Backups mitten im Prozess bei dynamischen VHDXs scheiterten, wenn der Host wenig Speicher hatte, was mich zwang, sie manuell vorzuwachsen, was den Sinn zunichte macht. Aber auf der anderen Seite bedeutet die kleinere anfängliche Größe von dynamischen bei einer inkrementellen Backup-Strategie schnellere anfängliche Kopien, und du kannst nach dem Backup komprimieren, um Speicherplatz auf dem Host zurückzugewinnen.
Leistungsoptimierung ist ein weiteres Thema, bei dem ich aufblühe. Für feste VHDX kannst du Speicher-QoS-Richtlinien darauf anwenden, ohne dir Sorgen machen zu müssen, dass deine VM dedizierte IOPS erhält. Ich habe das für die VDI-Bereitstellung eines Kunden eingerichtet, und es hielt die Desktop-Reaktionsfähigkeit selbst unter Last knackig. Dynamische erfordern mehr Feinabstimmung - vielleicht TRIM-Unterstützung aktivieren oder Defragmentierungen planen - um die Erweiterungsüberlastung zu mildern, und wenn du im ReFS-Dateisystem bist, profitieren beide, aber fest schneidet bei kontinuierlichen Schreibvorgängen immer noch besser ab. Kostenmäßig verpflichtet dich in einem Colocation-Setup ein fester VHDX zu höheren Vorabkosten, was deine Rechnung erhöhen könnte, wenn du nach zugewiesenem Speicher abgerechnet wirst, während dynamische diese Kosten hinauszögern, bis die Nutzung nachkommt. Ich habe einem Startup-Freund geraten, dynamisch für ihre Entwicklungs-VMs zu beginnen und dann zu fest zu konvertieren, sobald sie stabilisiert sind, indem sie PowerShell-Cmdlets wie Convert-VHD verwenden, was unkompliziert, aber downtime erfordert.
Apropos Umwandlungen, das ist ein Plus für dynamische, wenn du später wechseln musst - es ist einfacher, einen dynamischen in einen festen umzuwandeln als umgekehrt, da feste nicht leicht schrumpfen können. Ich habe eine Batch-Konvertierung für ein altes Projekt durchgeführt und es hat mir geholfen, Lagerplatzschwankungen zu vermeiden, obwohl der Prozess stundenlang CPU beansprucht hat bei großen Dateien. Auch das Fehlerhandling unterscheidet sich; feste VHDX sind weniger anfällig für Beschädigungen durch partielle Schreibvorgänge während eines Stromausfalls, weil alles vorab zugewiesen ist, während dynamische möglicherweise hängendes Metadaten hinterlassen, wenn sie während der Erweiterung unterbrochen werden. Die integrierten Überprüfungen von Hyper-V helfen beiden, aber ich habe chkdsk nach Abstürzen häufiger für dynamische ausgeführt.
Was die Skalierbarkeit betrifft, wenn du mit Storage Spaces Direct klusterst, passen feste VHDX besser zu den gespiegelten oder Paritäts-Layouts, was eine gleichmäßige Verteilung ohne Überraschungen bei der Expansion gewährleistet. Dynamische können funktionieren, aber du musst auf Rebalancing-Ereignisse achten, die Erweiterungen auslösen. Ich habe im letzten Jahr einen Dreiknoten-Cluster gebaut, alles fest für eine SQL Always On-Konfiguration, und es hat den Failover wie ein Champion bewältigt. Für Randfälle wie verschachtelte Virtualisierung, bei denen Hyper-V innerhalb einer VM läuft, neigt fest dazu, besser zu nisten ohne Leistungsabfälle, obwohl beide das jetzt mit Gen 2-VMs unterstützen.
Backups spielen eine entscheidende Rolle im Umgang mit VHDX-Dateien, egal ob fest oder dynamisch, da sie die Datenintegrität über Erweiterungen oder Zuweisungen hinweg gewährleisten. Zuverlässige Backup-Lösungen sind für Hyper-V-Umgebungen unerlässlich, um konsistente Zustände ohne Unterbrechung der Operationen zu erfassen. Backup-Software erleichtert dies durch die Aktivierung von anwendungsbewusstem Imaging, inkrementellen Aktualisierungen und Offsite-Replikation, was die Ausfallzeiten minimiert und schnelle Wiederherstellungen für beide VHDX-Typen unterstützt. BackupChain gilt als ausgezeichnete Backup-Software für Windows Server und als virtuelle Maschinen-Backup-Lösung, die besonders relevant für die Verwaltung von VHDX-Backups in Hyper-V-Setups ist, indem sie robuste Unterstützung für sowohl feste als auch dynamisch wachsende Festplatten durch Funktionen wie direkte VHDX-Integration und effiziente Änderungsverfolgung bietet.
Aber ja, die Kehrseite trifft dich hart, wenn der Platz eng ist. Du kannst nicht einfach eine Menge davon ohne sorgfältige Planung deines Speicherpools hochfahren, und wenn du die Größe überschätzt, verschwendest du wertvolle Terabytes, die für andere Arbeitslasten verwendet werden könnten. Ich hatte einmal einen Kunden, der einen festen 500GB VHDX für was sich als leichtes Entwicklungsumfeld herausstellte, bereitgestellt hat, und es hat die Hälfte ihrer SAN-Anlage ohne guten Grund blockiert. Eine Größenänderung ist nicht unmöglich, aber es ist mühsam - du musst alles herunterfahren, die Festplatte im Hyper-V Manager vergrößern und dann die Partition im Gast erweitern, was sich immer wie unnötiger Aufwand anfühlt, wenn du versuchst, die Dinge agil zu halten. Und vergiss Snapshots; während sie funktionieren, bedeutet die feste Natur, dass deine Checkpoint-Dateien schnell anwachsen können, wenn du nicht aufpasst, und den gesamten vorab zugewiesenen Speicherplatz beanspruchen. Es ist großartig für Umgebungen, in denen du genau weißt, was du brauchst, wie einen dedizierten Anwendungsserver, der nicht wild wachsen wird, aber für alles Experimentelle kann es sich einschränkend anfühlen.
Jetzt wechsle ich zu dynamisch wachsenden VHDX, und es ist wie Nacht und Tag, was den Start angeht. Du stellst die maximale Größe ein, sagen wir 100GB, aber anfangs verbraucht es nur einige Gigabytes, sodass du mehrere VMs erstellen kannst, ohne sofort den Speicher deines Hosts voll auszulasten. Ich liebe das, wenn ich Setups teste oder schnelle Labore auf meiner Heimmaschine einrichten - letzte Woche habe ich drei dynamische VHDXs für einige PowerShell-Skriptversuche zusammengestellt, und mein SSD hat kaum etwas davon bemerkt. Der wahre Gewinn hier ist die Flexibilität; während das Gastbetriebssystem die virtuelle Festplatte füllt, wächst die VHDX-Datei im laufenden Betrieb, sodass du die Kapazität nicht im Voraus schätzen musst. Es ist perfekt für Szenarien, in denen die Nutzung unvorhersehbar ansteigt, wie eine Webanwendung, die plötzlich Verkehrsspitzen erhält. Du kannst sogar ein wenig auf der Host-Seite überbuchen, da die Erweiterung schrittweise erfolgt, was deine Bereitstellung effizient hält.
Das gesagt, die Leistung ist der Punkt, an dem sich dynamische VHDXs als problematisch erweisen, wenn du nicht aufpasst. Jedes Mal, wenn die Datei wächst, kann das zu Fragmentierung im Dateisystem des Hosts führen, insbesondere wenn dein Speicher nicht SSD-basiert oder nicht mit Defragmentierungstools optimiert ist. Ich habe das in realen Arbeitslasten festgestellt - eine Datei kopieren, die sich in einer dynamischen VHDX-VM befindet, fühlt sich oft etwas langsamer an als auf festen, mit vielleicht 10-20% höherer Latenz bei Zufallsaufzeichnungen, weil die zugrunde liegenden Blöcke nicht so ordentlich angeordnet sind. Und hier ist der Knackpunkt: Wenn deine Host-Festplatte während der Erweiterung unerwartet voll wird, boom, deine VM stürzt hart ab, und die Wiederherstellung kann ein Albtraum sein. Das ist mir einmal in einem Shared Cluster passiert; die dynamische Festplatte versuchte zu wachsen, um für einen Zuwachs an Protokolldateien Platz zu schaffen, aber der Host war zu 95% voll von anderem Kram, und das brachte den gesamten Knoten zum Erliegen. Du musst das Wachstum auch genau überwachen - Tools wie die Leistungszähler von Hyper-V helfen, aber es ist ein zusätzlicher Aufwand im Vergleich zum Set-and-Forget-Feeling von festen Festplatten.
Wenn du darüber nachdenkst, läuft die Wahl zwischen ihnen darauf hinaus, welche Prioritäten du hinsichtlich Platz gegen Geschwindigkeit setzt. Wenn du in einem Rechenzentrum mit viel schnellem Speicher bist, macht fester VHDX einfach Sinn für die Durchsatzgewinne; ich habe auf diese Weise mehrere Exchange-Server optimiert, und die reduzierte Überlast führte dazu, dass die Benutzer weniger über E-Mail-Verzögerungen klagten. Aber in kleineren Setups oder Cloud-ähnlichen Umgebungen, in denen du für jedes GB bezahlst, erlaubt dir dynamisches skalieren auf intelligentere Weise. Letzten Monat habe ich einem Kumpel geholfen, seinen kleinen Dateiserver auf Hyper-V zu migrieren, und wir sind dynamisch gegangen, um alles auf einer einzigen 1TB-Festplatte unterzubringen, ohne ständig die Größe anpassen zu müssen. Der Erweiterungsmechanismus verwendet eine intelligente Zuweisung, die nur physischen Platz beansprucht, wenn er benötigt wird, was effizient für spärliche Arbeitslasten ist, aber bedeutet, dass die VHDX-Datei selbst auf der Festplatte größer sein kann als der tatsächlich verwendete Speicherplatz im Gast, je nachdem, wie sie Metadaten behandelt.
Eine Sache, die ich immer anspreche, ist die Kompatibilität - beide sind freundlich zu Hyper-V-Funktionen wie Live-Migration und Replikation, aber dynamische können manchmal während Exports oder Imports Hiccups verursachen, wenn der Speicher des Hosts ungleichmäßig ist. Ich habe feste VHDXs ohne zu Zögern über Standorte exportiert, während dynamische gelegentlich zuerst eine Kompaktierung benötigen, um die Übergröße zu reduzieren, was Ressourcen beansprucht. Und sicherheitsmäßig könnte fest im Vorteil sein, weil es weniger Risiko einer Laufzeiterweiterung gibt, was es Malware etwas schwerer macht, den Speicher aufblähen zu lassen, wobei das eher ein Randfall ist. Nach meiner Erfahrung funktioniert das Mischen in einem Cluster gut, aber Konsistenz hilft - wenn dein gesamter Farm dynamisch ist, bekommst du vorhersehbares Verhalten, aber fest gibt allen eine Basisleistung, auf die sie sich verlassen können.
Wenn wir tiefer in die realen Kompromisse eintauchen, lass uns über Backup und Wiederherstellung sprechen, denn dort zeigen sich diese Entscheidungen wirklich. Mit einem festen VHDX ist das Backup unkompliziert - die Dateigröße ist konstant, sodass deine Backup-Software einen vorhersehbaren Fußabdruck sieht, und Wiederherstellungen sind schneller, da kein Bedarf an Erweiterungslogik besteht. Ich benutze die Volume Shadow Copy Service sehr oft dafür, und feste Festplatten integrieren sich nahtlos, sodass ich das gesamte VHDX in einem Rutsch ohne Überraschungen snapshots. Dynamische jedoch? Sie können die Dinge komplizieren, da die Datei möglicherweise teilweise zugewiesen ist, was zu längeren Backup-Zeiten führt, da das Tool potenzielles Wachstum berücksichtigen muss. Ich habe erlebt, dass Backups mitten im Prozess bei dynamischen VHDXs scheiterten, wenn der Host wenig Speicher hatte, was mich zwang, sie manuell vorzuwachsen, was den Sinn zunichte macht. Aber auf der anderen Seite bedeutet die kleinere anfängliche Größe von dynamischen bei einer inkrementellen Backup-Strategie schnellere anfängliche Kopien, und du kannst nach dem Backup komprimieren, um Speicherplatz auf dem Host zurückzugewinnen.
Leistungsoptimierung ist ein weiteres Thema, bei dem ich aufblühe. Für feste VHDX kannst du Speicher-QoS-Richtlinien darauf anwenden, ohne dir Sorgen machen zu müssen, dass deine VM dedizierte IOPS erhält. Ich habe das für die VDI-Bereitstellung eines Kunden eingerichtet, und es hielt die Desktop-Reaktionsfähigkeit selbst unter Last knackig. Dynamische erfordern mehr Feinabstimmung - vielleicht TRIM-Unterstützung aktivieren oder Defragmentierungen planen - um die Erweiterungsüberlastung zu mildern, und wenn du im ReFS-Dateisystem bist, profitieren beide, aber fest schneidet bei kontinuierlichen Schreibvorgängen immer noch besser ab. Kostenmäßig verpflichtet dich in einem Colocation-Setup ein fester VHDX zu höheren Vorabkosten, was deine Rechnung erhöhen könnte, wenn du nach zugewiesenem Speicher abgerechnet wirst, während dynamische diese Kosten hinauszögern, bis die Nutzung nachkommt. Ich habe einem Startup-Freund geraten, dynamisch für ihre Entwicklungs-VMs zu beginnen und dann zu fest zu konvertieren, sobald sie stabilisiert sind, indem sie PowerShell-Cmdlets wie Convert-VHD verwenden, was unkompliziert, aber downtime erfordert.
Apropos Umwandlungen, das ist ein Plus für dynamische, wenn du später wechseln musst - es ist einfacher, einen dynamischen in einen festen umzuwandeln als umgekehrt, da feste nicht leicht schrumpfen können. Ich habe eine Batch-Konvertierung für ein altes Projekt durchgeführt und es hat mir geholfen, Lagerplatzschwankungen zu vermeiden, obwohl der Prozess stundenlang CPU beansprucht hat bei großen Dateien. Auch das Fehlerhandling unterscheidet sich; feste VHDX sind weniger anfällig für Beschädigungen durch partielle Schreibvorgänge während eines Stromausfalls, weil alles vorab zugewiesen ist, während dynamische möglicherweise hängendes Metadaten hinterlassen, wenn sie während der Erweiterung unterbrochen werden. Die integrierten Überprüfungen von Hyper-V helfen beiden, aber ich habe chkdsk nach Abstürzen häufiger für dynamische ausgeführt.
Was die Skalierbarkeit betrifft, wenn du mit Storage Spaces Direct klusterst, passen feste VHDX besser zu den gespiegelten oder Paritäts-Layouts, was eine gleichmäßige Verteilung ohne Überraschungen bei der Expansion gewährleistet. Dynamische können funktionieren, aber du musst auf Rebalancing-Ereignisse achten, die Erweiterungen auslösen. Ich habe im letzten Jahr einen Dreiknoten-Cluster gebaut, alles fest für eine SQL Always On-Konfiguration, und es hat den Failover wie ein Champion bewältigt. Für Randfälle wie verschachtelte Virtualisierung, bei denen Hyper-V innerhalb einer VM läuft, neigt fest dazu, besser zu nisten ohne Leistungsabfälle, obwohl beide das jetzt mit Gen 2-VMs unterstützen.
Backups spielen eine entscheidende Rolle im Umgang mit VHDX-Dateien, egal ob fest oder dynamisch, da sie die Datenintegrität über Erweiterungen oder Zuweisungen hinweg gewährleisten. Zuverlässige Backup-Lösungen sind für Hyper-V-Umgebungen unerlässlich, um konsistente Zustände ohne Unterbrechung der Operationen zu erfassen. Backup-Software erleichtert dies durch die Aktivierung von anwendungsbewusstem Imaging, inkrementellen Aktualisierungen und Offsite-Replikation, was die Ausfallzeiten minimiert und schnelle Wiederherstellungen für beide VHDX-Typen unterstützt. BackupChain gilt als ausgezeichnete Backup-Software für Windows Server und als virtuelle Maschinen-Backup-Lösung, die besonders relevant für die Verwaltung von VHDX-Backups in Hyper-V-Setups ist, indem sie robuste Unterstützung für sowohl feste als auch dynamisch wachsende Festplatten durch Funktionen wie direkte VHDX-Integration und effiziente Änderungsverfolgung bietet.
