Speichermarkt 2008: Hu Yoshida, CTO von Hitachi Data Systems zum Speicher in Zeiten des Klimawandels
08.02.2012 -
Speichermarkt 2008: Hu Yoshida, CTO von Hitachi Data Systems zum Speicher in Zeiten des Klimawandels. Nach Meinung von Hu Yoshida, CTO von Hitachi Data Systems (HDS), wird das Speicherjahr 2008 ganz unter dem Eindruck von zwei Entwicklungen stehen: Zum einen zwingt der Klimawandel die Unternehmen zum Nachdenken, zum anderen sorgen die Auswirkungen der USImmobilienkrise, des hohen Ölpreises und des Dollar-Tiefs für Unsicherheit. Energieeffiziente Speichertechnologien, die zur Kosteneinsparung beitragen, werden entsprechend noch mehr an Bedeutung gewinnen. Für das Jahr 2008 sieht Hu Yoshida zehn wichtige Trends.
1. Schärfere Regeln zum CO2-Ausstoß
Das gesteigerte Bewusstsein in Bezug auf den Klimawandel bedingt zunehmend gesetzliche Regelungen zum CO2-Ausstoß. Ein beträchtlicher Teil der Emissionen ist auf den hohen Strombedarf zurückzuführen – und davon schlucken Computer- und Netzwerke sowie Speichersysteme in den Rechenzentren einen erheblichen Anteil. London und New York sind nur zwei Beispiele für Mega-Cities, die fast am Ende ihrer Stromkapazitäten angelangt sind und Rechenzentren auslagern müssen. Das verlangt nach Verbesserungen der IT-Einrichtungen und Investitionen in grüne Technologien.
2. Unsicheres weltwirtschaftliches Klima
Die Verschlechterung des Wirtschaftsklimas insbesondere in den USA wirkt sich auf die IT-Budgets aus. Eine bessere Auslastung von Speicher, aber auch Konsolidierungsstrategien wie Virtualisierung, Daten- Deduplikation und Single-Instance- Store sind gefragt wie nie. Diese Methoden unterstützen Unternehmen wesentlich, ihre Geschäftsprozesse effizienter zu gestalten Auch landen Daten nun früher im Archiv, um die Produktivumgebung zu entlasten.
3. Archivierung wird immer wichtiger
Das Wachstum von strukturierten (Datenbanken), halbstrukturierten (E-Mails, Websiten) und unstrukturierten Daten hält weiter an. Gerade im Bereich der unstrukturierten Daten droht eine regelrechte Datenlawine – das E-Mail-Aufkommen eines Unternehmens wird sich von derzeit 200 MB auf geschätzte zwei GB erhöhen. Dazu kommen Daten von RFID Tags, Smart Cards und Sensoren. Die Konsequenz: der Bedarf an neuartigen Archivierungssystemen, die auf Petabyte-Ebene skalieren und Inhalte über verschiedene Datentypen und -pools auffindbar machen können, steigt.
4. Vermeidung von ineffizientem Speicher
Speicher kann ineffizient sein: niedrige Auslastung, mehrfach vorhandene Daten, langsame Zugriffsgeschwindigkeiten etc. Immer mehr von denselben alten Speicherarchitekturen zuzukaufen ist keine Lösung. Gefragt sind neue Speichertechnologien, die in punkto Performance, Konnektivität und Kapazität flexibel skalierbar sind und über Leistungen wie Multi-Protokoll- Fähigkeit, übergreifende Suchfunktionen bei heterogenen Speicherarrays sowie zentrales Management und entsprechende Sicherheitsvorrichtungen verfügen.
5. Schlüsselanforderung Datenmobilität
Weil Applikationen stets verfügbar sein sollen, muss die IT gewährleisten, dass Daten ohne deren Beeinträchtigung verschoben werden können. Bisher wurde das über Data Mover Software gelöst, aber das kostet Prozessorleistung und geht nur über langsame IP Links – ein Problem vor allem beim Transfer großer Datenmengen. Besser ist ein Speichersystem, dass die Daten über High Speed Fibre Channel Links verschiebt. Das garantiert eine unterbrechungsfreie Migration während Upgrades auf neuere und größere Speicher-Frames.
6. Speichervirtualisierung über den Controller
Die Speichervirtualisierung über den Controller wird in der Industrie als der einzig richtige Ansatz für Speicherarrays gesehen. Analysten wie Dr. Kevin McIsaac von Intelligent Business Research Services, sind der Ansicht, dass ein Netzwerk-basierter Ansatz fehleranfälliger sei. Die Konsequenz daraus sei eine Infrastruktur auf Basis des kleinsten gemeinsamen Nenners, so dass die Added- Value-Features der Arrays nicht genutzt werden können. Ein Controller- basierter Ansatz hingegen nutzt die zahlreichen Funktionen der Steuereinheit und verbessert damit die Funktionalität von niedrigpreisigen oder Legacy Speicher- Arrays.
7. Services Oriented Storage
Im dynamischen Rechenzentrum der Zukunft wird Service Oriented Storage die Service Oriented Architecture (SOA) bei den Applikationen und die Services Oriented Infrastructure bei den Infrastrukturen erfolgreich ergänzen. SOA basiert auf einer Virtualisierungsschicht, die von XML bereitgestellt wird. Diese ermöglicht den Anwendungen, Informationen zu teilen und Services, beispielsweise die Rechnungslegung, gemeinsam zu nutzen. Service Oriented Infrastructure basiert auf einem Visualisierungs- Layer, den Produkte wie VMWare liefern. VMWare ermöglicht Betriebssystemen, die Ressourcen einer Prozessorplattform zu teilen. Ein Virtualisierungs- Layer in der Steuereinheit ermöglicht es anderen Speichersystemen, ihre Services wie globaler Cache, Distance Replication, Tiered Storage und Thin Provisioning zu nutzen.
8. Konvergenz von Content-, File- und Blockbasierten Speicherservices
An Stelle von separaten Speichersystemen für Content- (Archiv), File- und Block-Storage wird es zur Konvergenz der Datentypen in einer gemeinsamen Virtualisierungsplattform kommen. Hochverfügbare Cluster von Content- und File-Servern nutzen dann eine gemeinsame Block-Virtualisierung- Services-Plattform, die zentral verwaltet wird. So können Content- oder File-Server gemeinsame Block-Services wie Replikation über große Distanzen, Thin Provisioning oder Virtualisierung heterogener Speichersysteme wirkungsvoll nutzen.
9. Thin Provisioning
Thin Provisioning sorgt für eine verbesserte Auslastung der Speicherressourcen und verhindert die Verschwendung von zugeteilten, aber ungenutzten Speicherkapazitäten. Als Service sollte Thin Provisioning über eine virtualisierte Speicherplattform zur Verfügung stehen, so dass alle Elemente einer Speicherlandschaft durch die Virtualisierung von den Vorteilen von Thin Provisioning profitieren können. So werden Betriebskosten gesenkt und ein Beitrag zur Green IT geleistet.
10. Daten-Deduplikation
Um Daten-Deduplikation kommt kein Backup-Hersteller herum. Mit Deduplikation lässt sich das Volumen des Datenstroms um das 20- bis 30fache reduzieren. Die damit verbundene Kostenreduzierung macht das Speichern auf Platten zur bezahlbaren Alternative zu Tape – mit den Vorteilen der höheren Zuverlässigkeit, Hochverfügbarkeit und Geschwindigkeit. Weitere Formen der Deduplikation wie Single-Instant-Store für Archivierung und Copy-on-Write für Snapshots werden zukünftig mehr eingesetzt.