Das Thema Storage brennt vielen kleineren, mittleren und großen Unternehmen auf den Nägeln. Kein Wunder, schließlich verdoppelt sich das Datenvolumen weltweit laut IDC alle zwei Jahre. Die Marktforscher gehen davon aus, dass 2011 die Menge der weltweit erzeugten und gespeicherten Daten die 1,8 Zettabyte-Marke erreichen wird. Das ist eine Eins mit 21 Nullen und entspricht 1,8 Billionen Gigabyte Daten!
Neben dem Volumen wächst auch die Zahl der Datenquellen. Man denke hier etwa an Sensoren, Social Networks oder mobile Endgeräte, die heute „klassische“ Transaktionssysteme ergänzen. Zudem müssen Unternehmen beim Archivieren von geschäftskritischen Daten strenge Compliance-Regeln (z.B. GDPdU und Basel II) beachten. Und die IT soll den einzelnen Abteilungen im Unternehmen alle benötigten Daten aufbereitet und schnell zur Verfügung stellen, um das eigene Business effizienter zu unterstützen. Der Aufwand für das Speichern und Aufbewahren von Firmendaten steigt also weiter – und das bei stagnierenden oder sogar sinkenden IT-Budgets.
Storage-Lösungen müssen daher mehr denn je vor allem zwei Anforderungen erfüllen: Effizienz und Wirtschaftlichkeit. Der Schlüssel für effiziente Storage-Landschaften liegt dabei überwiegend in der Software, die Hardware ist in weiten Teilen Commodity. Ziel ist es, das Datenvolumen beherrschbar zu machen und die reale Auslastung der Speicher zu steigern – und damit letztlich die Kosten der Datenhaltung zu senken. Technologien wie Deduplizierung oder Thin Provisioning helfen dabei.
Herkömmliche Speicher-Lösungen stoßen hier zunehmend an ihre Grenzen. Mit Storage Area Networks (SAN) und Networked Attached Storage (NAS) alleine lässt sich der schnelle Zugriff auf Informationen auf Dauer wohl nicht effizient realisieren. Für eine effiziente Datenhaltung genügt es nicht, die Daten auf einen Speicher zu schaufeln und sich dann nicht mehr darum zu kümmern. Unternehmen sollten kontinuierlich prüfen, ob die Informationen entsprechend ihrer Relevanz am richtigen Ort liegen.
Das Speicher-System sollte daher Funktionen wie Information Lifecycle Management (ILM) integrieren. Mit Hilfe von ILM liegen die Daten zum richtigen Zeitpunkt am richtigen Ort, das heißt häufig benötigte und wichtige Daten liegen auf schnellem Speichersystem, weniger wichtige Daten auf langsameren und kostengünstigeren Datenträgern. Die einzelnen Speichertechnologien werden dabei bestimmten Pools zugeordnet (z.B. SSD- oder SAS-Disks für schnellen Zugriff, SATA-Disks langsam und günstig, Tape Library für langfristige Archivierung).
ILM-Funktionen entlasten den Administrator, da er die Datenbestände nicht mehr selbst zu verwalten und auf die verschiedenen Speichermedien zu verlagern braucht; dies erledigt das Dateisystem selbst mit Hilfe vorher definierter Regeln. Diese basieren meist auf Metadaten wie Dateigröße, Typ, Benutzer oder letzter Zugriff.
Technisch ist also vieles machbar. Doch es gibt noch einen Weg, um der Datenflut zu begegnen. Unternehmen sollten nicht alles speichern, was sie technisch speichern können. Häufig verwahren sie Daten, die sie garantiert nie wieder brauchen. Daher gilt: Daten priorisieren und nicht zwingend benötigte Informationen löschen – auch wenn Loslassen schwer fällt.