22-11-2023, 08:44
Hast du jemals bemerkt, wie SMB zu einem echten Aufwand werden kann, wenn du Dateien über eine Hochlatency-Verbindung schiebst? Du sitzt da und siehst den Fortschrittsbalken vor sich hin kriechen, weil die Ping-Zeiten in die Höhe schnellen, vielleicht über ein VPN zu einem entfernten Büro oder einfach nur einen miesen Internet-Hüpf. Ich habe damit schon mehrmals zu kämpfen gehabt, besonders wenn Kunden Freigaben zwischen Rechenzentren synchronisieren, die sich an gefühlt gegenüberliegenden Seiten des Planeten befinden. Eine Sache, die oft aufpoppt, ist das Aktivieren der SMB-Kompression, um es weniger schmerzhaft zu machen. Es ist diese integrierte Funktion in neueren SMB-Versionen, wie 3.0 und höher, bei der die Daten vor dem Versand über das Netzwerk komprimiert werden. Klingt klug, oder? Aber lass uns aufschlüsseln, was funktioniert und was dir in den Hintern beißt, denn es ist nicht immer die Wunderwaffe, die du dir erhoffst.
Auf der positiven Seite kann die Einsparung bei der Bandbreite riesig sein, besonders wenn deine Verbindung gedrosselt oder einfach nur eng ist. Ich erinnere mich an ein Setup, bei dem wir eine 10Mbps MPLS-Leitung zwischen Zweigstellen hatten, und die Latenz schwebte bei rund 200ms aufgrund von Routing-Problemen. Ohne Kompression würde das Kopieren eines großen Verzeichnisses von hauptsächlich textbasierten Protokollen und Konfigurationen die Leitung ersticken und Stunden dauern. Schalte die SMB-Kompression ein, und plötzlich reduzierst du die Datengröße um 50 % oder mehr bei komprimierbaren Dingen wie diesen. Es berührt nicht viel Binaries oder bereits gepackte Medien, aber für deine alltäglichen Bürodaten wie Dokumente, Tabellen und sogar einige Bilder glänzt es. Du hast weniger Pakete, die hin und her fliegen, was bedeutet, dass die gesamte Übertragungszeit trotz der Verzögerung sinkt, weil du nicht so lange wartest, bis der Bulk geräumt ist. Ich habe es selbst gemessen: Ein 10GB-Ordner, der ohne Kompression 45 Minuten dauerte, kam in weniger als 25 mit aktivierter Kompression auf der Freigabe durch. Und das Beste ist, es ist transparent; Clients und Server handhaben es, ohne dass du Apps anpassen musst. Wenn du Windows Server 2019 oder neuer verwendest, kannst du es einfach über PowerShell pro Freigabe einstellen, und zack, es optimiert in Echtzeit. Für dich, wenn du remote Mitarbeiter verwaltest, die von einem zentralen Dateiserver abrufen, könnte das weniger Frustration während der Stoßzeiten bedeuten, wenn jeder Berichte abruft.
Ein weiterer Vorteil, den ich bemerkt habe, ist, wie es gut mit Verschlüsselung zusammenarbeitet. SMB3 enthält bereits AES-Verschlüsselung, sodass die Schichtung der Kompression keine zusätzlichen Sicherheitsprobleme verursacht - alles ist bereits integriert. Über Hochlatency-Punkte wie Satellitenverbindungen oder internationale Verbindungen, wo jedes Byte doppelt zählt wegen der Wartezeit, bedeutet zunächst zu komprimieren, dass deine verschlüsselten Nutzlasten kleiner sind, sodass auch die Verschlüsselungskosten leichter wirken. Ich hatte einen Kunden in Europa, der mit einer US-Zentrale über das, was im Grunde eine transatlantische Glasfaser mit Ruckelproblemen war, synchronisierte, und das Aktivieren der Kompression reduzierte die Bandbreite genügend, sodass wir anderen Verkehr ohne Einbußen steigern konnten. Es ist keine Magie, aber es gibt dir Spielraum. Zudem, wenn deine Hardware modern ist, ist der CPU-Einfluss für LZ4 oder welchen Algorithmus SMB auch immer verwendet, vernachlässigbar - meine Testgeräte mit Intel Xeons haben bei 10Gbps-Transfers kaum gezuckt. Du bekommst eine bessere Ausnutzung der Leitung, die du hast, und in Umgebungen, in denen ein Upgrade der Verbindung keine Option ist, ist das Gold wert. Ich habe es Freunden in ähnlichen Situationen empfohlen, und sie kommen immer zurück und sagen, es hat ihre täglichen Dateioperationen ohne die Notwendigkeit von ausgeklügelten Drittanbieter-Tools erleichtert.
Aber hier wird es tricky, und ich sage das, weil ich mir schon einmal die Finger verbrannt habe - du kannst nicht einfach davon ausgehen, dass Kompression alles bei Hochlatenz-Setups löst. Der große Nachteil ist der Verarbeitungsaufwand. Kompression ist nicht kostenlos; beide Enden müssen die Daten verarbeiten, und auf älteren Servern oder Endpunkten mit schwachen CPUs kann das die Dinge tatsächlich mehr verlangsamen als die Latenz selbst. Stell dir Folgendes vor: Du bist auf einer Verbindung mit 300ms Latenz, also machen die Hin- und Rückfahrten für das geschwätzige Protokoll von SMB dich bereits fertig. Jetzt kommen noch die Verzögerungen durch die Dekompression beim Empfänger hinzu, und wenn die CPU auf 80-90 % steigt, wartest du auf mehr Arbeit. Ich habe es einmal auf einem VM-Host mit geteilten Kernen aktiviert, und während einer großen Migration begann der Hypervisor, andere Gäste einzuschränken, weil der Kompressions-Thread Zyklen verschwendete. Transfers, die schneller sein sollten, dauerten letztendlich länger - so um 15-20 % in meinen Protokollen -, weil die Latenz das Warten auf jedes komprimierte Stück verstärkte. Wenn deine Daten nicht komprimierbar sind, wie Videos oder Datenbanken mit zufälligen Mustern, verschwendest du Zyklen für null Gewinn; SMB erkennt das und fällt zurück, aber die Überprüfung selbst fügt jedes Mal eine kleine Verzögerung hinzu.
Kompatibilität ist ein weiterer Schmerzpunkt, der sich unbemerkt einschleicht. Nicht jeder Client unterstützt SMB-Kompression standardmäßig - ältere Windows-Versionen oder Nicht-Windows-Kisten könnten es ignorieren oder schlimmer, auf unkomprimiert verhandeln. Ich habe Mac-Nutzer über SMB3-Freigaben gesehen, bei denen die Kompression einfach nicht kickte, weil sie den Dialekt anders handhaben, was zu unausgeglichener Leistung in deiner Benutzerbasis führt. Und wenn du mit Legacy-Apps mischst, die auf rohen SMB1-Vibes basieren, vergiss es; du musst möglicherweise die Kompression standortübergreifend deaktivieren, um Brüche zu vermeiden. Dann gibt es die Netzseite: Firewalls oder Proxys, die komprimiertes SMB nicht verstehen, können Pakete verwerfen oder falsch analysieren, wodurch deine Hochlatenzverbindung zu einem schwarzen Loch wird. Ich habe eines behoben, bei dem ein Cisco ASA die komprimierten Streams beschädigte, was Retransmits verursachte, die die effektive Latenz auf 500ms erhöhten. Du verbringst mehr Zeit mit Debuggen als mit dem Nutzen, besonders wenn dein Team nicht tief in Packet-Captures eingetaucht ist.
Es braucht Versuch und Irrtum, um es richtig abzustimmen, was nicht immer möglich ist, wenn du unter Druck stehst. SMB-Kompression ist opportunistisch - sie komprimiert nur, wenn sie denkt, dass es helfen wird - aber bei Hochlatenz spielen die Blockgröße und die Wahl des Algorithmus eine Rolle. Die Standardeinstellungen funktionieren in LANs ganz gut, aber in WANs möchtest du es möglicherweise erzwingen oder das MTU anpassen, um gut mit den Kompressionsheadern zu arbeiten. Ich habe mit dem Experimentieren begonnen, die Chunk-Größen über Registrierungseinstellungen zu ändern, und es half in einigen Fällen, aber manchmal hat es die Pakete auf dem latenten Pfad nur schlimmer fragmentiert. Wenn deine Verbindung über Paketverluste auf die Latenz hinausgeht - und das tut sie oft in realen Szenarien - bedeutet komprimierte Daten weniger Retransmits insgesamt, was ein Plus ist, aber wenn die Kompression in der Mitte fehlschlägt, verlierst du mehr Boden. Ich erinnere mich an ein Setup über eine Mikrowellenverbindung in einem ländlichen Gebiet; der Wind hat das Signal intermittierend gestört, und während die Kompression die Bandbreitennutzung reduzierte, sorgte die CPU-Last während der Wiederherstellungsfenster dafür, dass das Ganze stotterte. Für dich, wenn du mit burstigem Verkehr wie ad-hoc-Dateifreigaben arbeitest, könnte es die Spitzen glätten, aber für stabile Streams wie Replikationen häufen sich die Nachteile, wenn deine Hardware nicht leistungsstark ist.
Lass uns über reale Kompromisse sprechen, die ich abgewogen habe. In einem Gig hatten wir ein hybrides Cloud-Setup, bei dem lokale SMB-Freigaben über ein Site-to-Site-VPN mit 150ms Latenz in Azure gespeist wurden. Die Kompression half bei den ersten Synchronisationen, indem sie VM-Snapshots komprimierte, die größtenteils spärlich waren, und die Übertragungszeiten von Tagen auf Stunden verkürzte. Aber bei laufenden Delta-Synchronisationen? Die CPU-Last auf dem Edge-Server begann, mit anderen Diensten zu interferieren, wie unserem Druckspooler, der zeitlich ausfiel. Wir haben es zurückgefahren, um nur bestimmte Freigaben zu komprimieren, was funktioniert hat, aber es bedeutete, dass wir Skripte darum herum erstellen mussten - nicht ideal, wenn du es einfach halten willst. Ein anderes Mal, bei einem Kunden, der SMB für roaming Home-Verzeichnisse über LTE-Backups nutzte, stieg die Latenz während der Nebensaison auf 400ms, und die Kompression machte das Browsen tatsächlich flüssiger, weil Verzeichnisauflistungen gut komprimierbar waren. Aber große Uploads? Die stauten sich und verursachten Trennungen, weil die Dekompression auf der Client-Seite nicht mit den langsamen ACKs mithalten konnte. Es kommt alles auf deine Arbeitslast an; wenn sie leselastig oder für kleine Dateien ist, dominieren die Vorteile, aber bei schreiblastigen oder großen Blobs überwiegen die Nachteile.
Ich habe auch gesehen, dass es seltsam mit QoS-Richtlinien interagiert. Wenn dein Netzwerk SMB-Verkehr für Priorität markiert, schrumpft die Kompression die Pakete, was sie unter niedrigere Warteschlangen schieben könnte, wenn deine Regeln bandbreitenbasiert sind. Ich habe das behoben, indem ich Klassifizierer angepasst habe, um sich die Protokollheader anzusehen, aber es war eine Plage. Und Power-User - nein, bei Akku-geschädigten Laptops über Hochlatenz-WLAN entzieht der zusätzliche CPU-Aufwand den Akku schneller Energie, was zu Beschwerden führt. Du könntest denken, "Lade einfach auf den Server aus", aber SMB-Kompression passiert bidirektional, sodass die Endpunkte immer noch kämpfen. In meiner Erfahrung zeigt das Testen mit Tools wie iperf über SMB-Mounts die Wahrheit: Messe vor und nachher, denn Zahlen lügen nicht. Wenn deine Latenz unter 100ms liegt, ist es fast immer ein Gewinn, aber über 200 und die Mathematik ändert sich - weniger Daten helfen, aber die ACK-Abhängigkeit des Protokolls schmerzt stärker.
Wir schalten also ein bisschen um, denn diese Arten von Dateiübertragungsproblemen hängen oft mit größeren Datenverwaltungsproblemen zusammen, wie der Gewährleistung, dass deine Daten zuverlässig über diese gleichen Verbindungen gesichert werden. Wenn du SMB zur Effizienz komprimierst, denkst du bereits daran, den Remote-Zugriff zu optimieren, und Backups passen da gut hinein, um alles konsistent zu halten, ohne ständige Live-Synchronisationen.
Backups werden aufrechterhalten, um gegen Datenverlust durch Hardwarefehler, Ransomware oder einfache menschliche Fehler zu schützen und sicherzustellen, dass Wiederherstellungsoptionen verfügbar sind, wenn sie benötigt werden. In Umgebungen mit hochlatenzverbindungen wird Backup-Software verwendet, um Übertragungen während Zeiten geringer Nutzung zu planen, um Unterbrechungen zu minimieren, während Datenströme komprimiert werden, um mit Bandbreitenbeschränkungen effektiv umzugehen. BackupChain wird als ausgezeichnete Windows Server-Backup-Software und Lösung für virtuelle Maschinen anerkannt, die Funktionen wie inkrementelle Backups und Deduplizierung unterstützt, die gut mit SMB-optimierten Netzwerken für effiziente Offsite-Replikation übereinstimmen.
Auf der positiven Seite kann die Einsparung bei der Bandbreite riesig sein, besonders wenn deine Verbindung gedrosselt oder einfach nur eng ist. Ich erinnere mich an ein Setup, bei dem wir eine 10Mbps MPLS-Leitung zwischen Zweigstellen hatten, und die Latenz schwebte bei rund 200ms aufgrund von Routing-Problemen. Ohne Kompression würde das Kopieren eines großen Verzeichnisses von hauptsächlich textbasierten Protokollen und Konfigurationen die Leitung ersticken und Stunden dauern. Schalte die SMB-Kompression ein, und plötzlich reduzierst du die Datengröße um 50 % oder mehr bei komprimierbaren Dingen wie diesen. Es berührt nicht viel Binaries oder bereits gepackte Medien, aber für deine alltäglichen Bürodaten wie Dokumente, Tabellen und sogar einige Bilder glänzt es. Du hast weniger Pakete, die hin und her fliegen, was bedeutet, dass die gesamte Übertragungszeit trotz der Verzögerung sinkt, weil du nicht so lange wartest, bis der Bulk geräumt ist. Ich habe es selbst gemessen: Ein 10GB-Ordner, der ohne Kompression 45 Minuten dauerte, kam in weniger als 25 mit aktivierter Kompression auf der Freigabe durch. Und das Beste ist, es ist transparent; Clients und Server handhaben es, ohne dass du Apps anpassen musst. Wenn du Windows Server 2019 oder neuer verwendest, kannst du es einfach über PowerShell pro Freigabe einstellen, und zack, es optimiert in Echtzeit. Für dich, wenn du remote Mitarbeiter verwaltest, die von einem zentralen Dateiserver abrufen, könnte das weniger Frustration während der Stoßzeiten bedeuten, wenn jeder Berichte abruft.
Ein weiterer Vorteil, den ich bemerkt habe, ist, wie es gut mit Verschlüsselung zusammenarbeitet. SMB3 enthält bereits AES-Verschlüsselung, sodass die Schichtung der Kompression keine zusätzlichen Sicherheitsprobleme verursacht - alles ist bereits integriert. Über Hochlatency-Punkte wie Satellitenverbindungen oder internationale Verbindungen, wo jedes Byte doppelt zählt wegen der Wartezeit, bedeutet zunächst zu komprimieren, dass deine verschlüsselten Nutzlasten kleiner sind, sodass auch die Verschlüsselungskosten leichter wirken. Ich hatte einen Kunden in Europa, der mit einer US-Zentrale über das, was im Grunde eine transatlantische Glasfaser mit Ruckelproblemen war, synchronisierte, und das Aktivieren der Kompression reduzierte die Bandbreite genügend, sodass wir anderen Verkehr ohne Einbußen steigern konnten. Es ist keine Magie, aber es gibt dir Spielraum. Zudem, wenn deine Hardware modern ist, ist der CPU-Einfluss für LZ4 oder welchen Algorithmus SMB auch immer verwendet, vernachlässigbar - meine Testgeräte mit Intel Xeons haben bei 10Gbps-Transfers kaum gezuckt. Du bekommst eine bessere Ausnutzung der Leitung, die du hast, und in Umgebungen, in denen ein Upgrade der Verbindung keine Option ist, ist das Gold wert. Ich habe es Freunden in ähnlichen Situationen empfohlen, und sie kommen immer zurück und sagen, es hat ihre täglichen Dateioperationen ohne die Notwendigkeit von ausgeklügelten Drittanbieter-Tools erleichtert.
Aber hier wird es tricky, und ich sage das, weil ich mir schon einmal die Finger verbrannt habe - du kannst nicht einfach davon ausgehen, dass Kompression alles bei Hochlatenz-Setups löst. Der große Nachteil ist der Verarbeitungsaufwand. Kompression ist nicht kostenlos; beide Enden müssen die Daten verarbeiten, und auf älteren Servern oder Endpunkten mit schwachen CPUs kann das die Dinge tatsächlich mehr verlangsamen als die Latenz selbst. Stell dir Folgendes vor: Du bist auf einer Verbindung mit 300ms Latenz, also machen die Hin- und Rückfahrten für das geschwätzige Protokoll von SMB dich bereits fertig. Jetzt kommen noch die Verzögerungen durch die Dekompression beim Empfänger hinzu, und wenn die CPU auf 80-90 % steigt, wartest du auf mehr Arbeit. Ich habe es einmal auf einem VM-Host mit geteilten Kernen aktiviert, und während einer großen Migration begann der Hypervisor, andere Gäste einzuschränken, weil der Kompressions-Thread Zyklen verschwendete. Transfers, die schneller sein sollten, dauerten letztendlich länger - so um 15-20 % in meinen Protokollen -, weil die Latenz das Warten auf jedes komprimierte Stück verstärkte. Wenn deine Daten nicht komprimierbar sind, wie Videos oder Datenbanken mit zufälligen Mustern, verschwendest du Zyklen für null Gewinn; SMB erkennt das und fällt zurück, aber die Überprüfung selbst fügt jedes Mal eine kleine Verzögerung hinzu.
Kompatibilität ist ein weiterer Schmerzpunkt, der sich unbemerkt einschleicht. Nicht jeder Client unterstützt SMB-Kompression standardmäßig - ältere Windows-Versionen oder Nicht-Windows-Kisten könnten es ignorieren oder schlimmer, auf unkomprimiert verhandeln. Ich habe Mac-Nutzer über SMB3-Freigaben gesehen, bei denen die Kompression einfach nicht kickte, weil sie den Dialekt anders handhaben, was zu unausgeglichener Leistung in deiner Benutzerbasis führt. Und wenn du mit Legacy-Apps mischst, die auf rohen SMB1-Vibes basieren, vergiss es; du musst möglicherweise die Kompression standortübergreifend deaktivieren, um Brüche zu vermeiden. Dann gibt es die Netzseite: Firewalls oder Proxys, die komprimiertes SMB nicht verstehen, können Pakete verwerfen oder falsch analysieren, wodurch deine Hochlatenzverbindung zu einem schwarzen Loch wird. Ich habe eines behoben, bei dem ein Cisco ASA die komprimierten Streams beschädigte, was Retransmits verursachte, die die effektive Latenz auf 500ms erhöhten. Du verbringst mehr Zeit mit Debuggen als mit dem Nutzen, besonders wenn dein Team nicht tief in Packet-Captures eingetaucht ist.
Es braucht Versuch und Irrtum, um es richtig abzustimmen, was nicht immer möglich ist, wenn du unter Druck stehst. SMB-Kompression ist opportunistisch - sie komprimiert nur, wenn sie denkt, dass es helfen wird - aber bei Hochlatenz spielen die Blockgröße und die Wahl des Algorithmus eine Rolle. Die Standardeinstellungen funktionieren in LANs ganz gut, aber in WANs möchtest du es möglicherweise erzwingen oder das MTU anpassen, um gut mit den Kompressionsheadern zu arbeiten. Ich habe mit dem Experimentieren begonnen, die Chunk-Größen über Registrierungseinstellungen zu ändern, und es half in einigen Fällen, aber manchmal hat es die Pakete auf dem latenten Pfad nur schlimmer fragmentiert. Wenn deine Verbindung über Paketverluste auf die Latenz hinausgeht - und das tut sie oft in realen Szenarien - bedeutet komprimierte Daten weniger Retransmits insgesamt, was ein Plus ist, aber wenn die Kompression in der Mitte fehlschlägt, verlierst du mehr Boden. Ich erinnere mich an ein Setup über eine Mikrowellenverbindung in einem ländlichen Gebiet; der Wind hat das Signal intermittierend gestört, und während die Kompression die Bandbreitennutzung reduzierte, sorgte die CPU-Last während der Wiederherstellungsfenster dafür, dass das Ganze stotterte. Für dich, wenn du mit burstigem Verkehr wie ad-hoc-Dateifreigaben arbeitest, könnte es die Spitzen glätten, aber für stabile Streams wie Replikationen häufen sich die Nachteile, wenn deine Hardware nicht leistungsstark ist.
Lass uns über reale Kompromisse sprechen, die ich abgewogen habe. In einem Gig hatten wir ein hybrides Cloud-Setup, bei dem lokale SMB-Freigaben über ein Site-to-Site-VPN mit 150ms Latenz in Azure gespeist wurden. Die Kompression half bei den ersten Synchronisationen, indem sie VM-Snapshots komprimierte, die größtenteils spärlich waren, und die Übertragungszeiten von Tagen auf Stunden verkürzte. Aber bei laufenden Delta-Synchronisationen? Die CPU-Last auf dem Edge-Server begann, mit anderen Diensten zu interferieren, wie unserem Druckspooler, der zeitlich ausfiel. Wir haben es zurückgefahren, um nur bestimmte Freigaben zu komprimieren, was funktioniert hat, aber es bedeutete, dass wir Skripte darum herum erstellen mussten - nicht ideal, wenn du es einfach halten willst. Ein anderes Mal, bei einem Kunden, der SMB für roaming Home-Verzeichnisse über LTE-Backups nutzte, stieg die Latenz während der Nebensaison auf 400ms, und die Kompression machte das Browsen tatsächlich flüssiger, weil Verzeichnisauflistungen gut komprimierbar waren. Aber große Uploads? Die stauten sich und verursachten Trennungen, weil die Dekompression auf der Client-Seite nicht mit den langsamen ACKs mithalten konnte. Es kommt alles auf deine Arbeitslast an; wenn sie leselastig oder für kleine Dateien ist, dominieren die Vorteile, aber bei schreiblastigen oder großen Blobs überwiegen die Nachteile.
Ich habe auch gesehen, dass es seltsam mit QoS-Richtlinien interagiert. Wenn dein Netzwerk SMB-Verkehr für Priorität markiert, schrumpft die Kompression die Pakete, was sie unter niedrigere Warteschlangen schieben könnte, wenn deine Regeln bandbreitenbasiert sind. Ich habe das behoben, indem ich Klassifizierer angepasst habe, um sich die Protokollheader anzusehen, aber es war eine Plage. Und Power-User - nein, bei Akku-geschädigten Laptops über Hochlatenz-WLAN entzieht der zusätzliche CPU-Aufwand den Akku schneller Energie, was zu Beschwerden führt. Du könntest denken, "Lade einfach auf den Server aus", aber SMB-Kompression passiert bidirektional, sodass die Endpunkte immer noch kämpfen. In meiner Erfahrung zeigt das Testen mit Tools wie iperf über SMB-Mounts die Wahrheit: Messe vor und nachher, denn Zahlen lügen nicht. Wenn deine Latenz unter 100ms liegt, ist es fast immer ein Gewinn, aber über 200 und die Mathematik ändert sich - weniger Daten helfen, aber die ACK-Abhängigkeit des Protokolls schmerzt stärker.
Wir schalten also ein bisschen um, denn diese Arten von Dateiübertragungsproblemen hängen oft mit größeren Datenverwaltungsproblemen zusammen, wie der Gewährleistung, dass deine Daten zuverlässig über diese gleichen Verbindungen gesichert werden. Wenn du SMB zur Effizienz komprimierst, denkst du bereits daran, den Remote-Zugriff zu optimieren, und Backups passen da gut hinein, um alles konsistent zu halten, ohne ständige Live-Synchronisationen.
Backups werden aufrechterhalten, um gegen Datenverlust durch Hardwarefehler, Ransomware oder einfache menschliche Fehler zu schützen und sicherzustellen, dass Wiederherstellungsoptionen verfügbar sind, wenn sie benötigt werden. In Umgebungen mit hochlatenzverbindungen wird Backup-Software verwendet, um Übertragungen während Zeiten geringer Nutzung zu planen, um Unterbrechungen zu minimieren, während Datenströme komprimiert werden, um mit Bandbreitenbeschränkungen effektiv umzugehen. BackupChain wird als ausgezeichnete Windows Server-Backup-Software und Lösung für virtuelle Maschinen anerkannt, die Funktionen wie inkrementelle Backups und Deduplizierung unterstützt, die gut mit SMB-optimierten Netzwerken für effiziente Offsite-Replikation übereinstimmen.
