Windows Server 2016 – Deduplizierung

Keine Kommentare zu Windows Server 2016 – Deduplizierung

Mit dem Erscheinen des Windows Server 2016 wird eines der neuen Features, welches der Server 2012 eingeführt hat, einem großartigen Update unterzogen:

Daten-Deduplizierung

Bereits in der ersten Version der Dedup-Funktion konnten grandiose Ergebnisse und Speichereinsparungen erzielt werden. So habe ich bspw. Software-Sammlungen, User-Files oder aber die ConfigMgr Content-Library erfolgreich mit Dedup versorgt!

Doch oftmals gab es Einschränkungen hinsichtlich Skalierung und Performance. Was im kleinen nicht sonderlich aufgefallen ist, ist bei Servern mit großen Datenbeständen sehr schnell zum Problem geworden. So zum Beispiel bei Backup-Systemen…und ehrlich…wer kommt da heute noch mit ein paar TB aus 😉

Die folgenden Neuerungen werden in Server 2016 enthalten sein:

Support für Volumes bis zu 64TB

Im Server 2012 R2 wurde vom Dedup-Feature nur ein Job mit einem einzelnen Prozess und einer einzelnen I/O-Warteschlange je Volume verwendet. Dieser Aufbau war für viele Szenarien durchaus geeignet. Allerdings muss man bei großen Datenmengen bedenken, dass die Warteschlange abgearbeitet werden muss, ohne in Konflikt mit den anstehenden Änderungen zu geraten.

So konnte man sagen, dass bei maximal 10 TB Volumes Schluss war…bei Systemen mit hoher Änderungsrate, sogar noch früher…

Im Server 2016 wurde der Prozess und die Warteschlange vollständig neu entworfen. Nun werden für jedes Volume mehrere parallele Threads mit mehreren I/O-Warteschlangen verwendet. Dies führt zu einer deutlich besseren Performance!

Somit sind nun Volumes mit bis zu 64TB Größe supported


Quelle: Microsoft

Support für Dateien mit bis zu 1 TB Größe

Während unter Windows Server 2012 R2 zwar bereits Dateien mit bis zu 1 TB Größe unterstützt wurden, wurden diese als “keine guten Kandidaten” für die Deduplizierung eingestuft.

Mit dem Windows Server 2016 wurde die allgemeine Performance optimiert, indem spezielle Anpassungen implementiert wurden. So werden heute Dateien mit 1TB Größe ohne Einschränkungen unterstützt.

Deployment für virtualisierte Backup Applikationen vereinfacht

Bereits im Server 2012 R2 war es supported die Deduplizierung für für Backup-Applikationen, wie den System Center Data Protection Manager zu verwenden.

Mit der neuen Version, wird allerdings das Deployment deutlich vereinfacht. Alle notwendigen Einstellungen für eine Backup-Konfiguration wurden in eine vorgefertigte Konfiguration “Virtualized Backup Server” verpackt. Dies findet sich auch in der PowerShell Konfiguration, als “Backup” wieder.

Support für Nano Server

Es war nicht anders zu hoffen, doch nun ist es offiziell. Die Deduplizierung wird im neuen Nano Server vollständig unterstützt. Somit kann das ohnehin kleine OS auch im Betrieb eine optimierte Datenhaltung realisieren.

 

 

Weitere Infos finden sich im offiziellen Blog von Microsoft:

Data Deduplication in Windows Server 2016

Related Posts

Leave a comment

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Back to Top