StorageCraft Technology, LLC

In meinem vorherigen Beitrag habe ich Gründe erörtert, warum Thin Provisioning im Allgemeinen der beste Weg ist, um Speicherplatz in virtuellen Speicherszenarien zuzuweisen. Warum? Wegen der:

  1. Flexibilität
  2. Einsparungen

Mit Thin Provisioning können Sie mehrere VMs (virtuelle Maschinen) auf einer physischen Festplatte erstellen, ohne sich Gedanken darüber machen zu müssen, ob Sie über den erforderlichen Speicherplatz verfügen, da Ihr Hypervisor nur den von der VM verwendeten Speicherplatz zuweist. Infolgedessen können Sie mehr Speicherplatz kaufen, als Sie benötigen, anstatt die Menge im Voraus erraten zu müssen.

Aber Thin Provisioning hat seine Grenzen. Hier sind die drei häufigsten Nachteile, auf die ich bisher gestoßen bin:

1. Verminderte Leistung

Ich habe mehrere Beiträge und Threads gelesen, in denen der Leistungsunterschied zwischen Thin Provisioned VMs und Thick Provisioned VMs diskutiert wurde. Der allgemeine Konsens? Thin Provisioning bietet nicht das gleiche Leistungsniveau wie Thick Provisioning. In einem Server Fault Thread wird das Risiko erörtert, dass Thin Provisioned Disks stark fragmentiert werden, was sich auf die Gesamtleistung auswirkt.

Wie Kommentator wazoox erklärt:

er Performance-Hit ist meist Fragmentierung. Beim Initialisieren eines Laufwerks sind alle seine Blöcke zusammenhängend, während sie bei Thin-Provisioning stark fragmentiert werden können. Sparse-Dateien sind eigentlich eine „freie“ Dateisystemfunktion und wachsen einfach automatisch, wenn ihnen Blöcke zugewiesen werden.

In einem kürzlich erschienenen Spiceworks-Thread sagt Scott Alan Miller von der MSP Niagara Technology Group, dass der Unterschied in den meisten Fällen nominal ist und dass es für die meisten KMU kontraproduktiv ist, sich darüber Gedanken zu machen:

Sofern Sie keine latenzempfindliche, E / A-gebundene Anwendung haben, ist Thick selten eine gute Wahl. Es bringt einfach zu viele Probleme oder fehlende Vorteile … Das Problem ist … KMUs haben oft die Einstellung „Leistung über alles“, wenn Leistung in Wirklichkeit das Letzte ist, was KMUs brauchen. Was sie brauchen, ist Zuverlässigkeit, einfache Verwaltung, Kostenmanagement usw.

2. Überbelegung von Speicherplatz

Nehmen wir der Einfachheit halber an, Sie haben 1 TB physischen Speicher. Sie können 10 (oder 100) Thin Provisioned VMs mit jeweils 200 GB erstellen, obwohl Ihr physischer Speicher nicht alle verarbeiten kann, wenn sich die Mehrheit ihrer Kapazität nähert, da derzeit jede VM höchstens 50 GB pro Stück verwendet.

Aber was passiert, wenn Sie all diese verschiedenen VMs nicht überwachen können? Wie Wazoox sagt,

Wenn Ihnen jemals der reale Speicherplatz auf Thin Provisioned Storage ausgeht, bei dem Sie zu viel Speicherplatz zugewiesen haben, kann jeder Schreibvorgang zu einem katastrophalen Fehler auf einem oder mehreren VM-Laufwerken führen, der normalerweise nicht repariert werden kann.

Das ist ein berechtigtes Anliegen, aber IT-Experten sollten diese Festplattennutzung als Best Practice im Rechenzentrum überwachen. In dem zuvor zitierten Spiceworks-Thread erklärt der Kommentator Darth Hoody es besser als ich:

Der einzige Grund, warum Sie die Bereitstellung NICHT ausdünnen sollten, ist, wenn Sie Ihren Speicher nicht überwachen und verwalten möchten, nicht wissen, wie oder auf andere Weise nicht überwachen und verwalten können. Ja, if kann definitiv Probleme verursachen, wenn Sie bis zu dem Punkt überprovisionieren, an dem Sie Ihren Datenspeichern keinen Speicherplatz mehr zur Verfügung stellen und alle Ihre VMs ausschalten. Es könnte legitime Gründe dafür geben, aber für mich ist es verschwenderisch und nur schlechte Praxis.

3. Mangelnde Elastizität

Obwohl Sie mit Thin Provisioning Ihren Speicherplatz nach Bedarf erweitern können, ist die Technologie nicht elastisch. Mit anderen Worten, Sie können Ihre Platzzuweisung erweitern, aber nicht verkleinern. SearchVirtualStorage, eine TechTarget-Publikation, diskutiert dieses Problem in seinem Beitrag VMware Thin Provisioning: Vor- und Nachteile:

Thin Provisioning erstellt Festplatten, die wachsen, aber nicht wirklich schrumpfen; Sie geben keinen Speicherplatz an den gesamten freien Pool zurück. Wenn Sie im VMware-Fall eine Thin-Provisioned-Festplatte erstellen, wird diese wachsen; wenn Sie Daten von dieser Festplatte löschen, wird das VMDK verkleinert, sodass mehr Speicherplatz in diesem Datenspeicher verfügbar ist, der Datenspeicher jedoch nicht verkleinert wird und dem Array—Controller für andere Zwecke nicht zur Verfügung steht — es sei denn, der Array-Controller führt eine Nullerkennung durch, was viele Array-Controller tun, die Thin Provisioning durchführen – und Sie erstellen entweder eine Thick-Festplatte mit Null oder eine Thick-Festplatte mit eifriger Null. Diese Datenträgertypen weisen Speicherplatz zu und füllen ihn mit Nullen.

Als Steve Snyder und ich uns vor ein paar Wochen unterhielten, waren wir uns einig, dass eine der vielen Hypervisor-Plattformen irgendwann mit wirklich elastischer Bereitstellung herauskommen wird. Aber keiner von uns hat es geschafft, konkrete Neuigkeiten über diese Entwicklung zu finden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.