Herausforderungen des Effizienten Rechenzentrums - Wenn Datenkopien Überhand nehmen

Wir befinden uns in der Mitte eines neuen Zyklus in der IT. Der Bedarf nach Outsourcing erscheint rückläufig, seit Technologien wie Vitalisierung und Cloud Computing höhere Kosteneffizienz ermöglichen. Ideen über das Design von Rechenzentren, inspiriert von Google und Facebook, bieten heute neue Perspektiven

  • 10 years ago Posted in

Doch auch wennsich das Denken weiterentwickelt hat, die Plagen sind dieselben geblieben. Tatsächlich sind einige heute noch akuter geworden, wenn man sich das kontinuierliche Datenwachstum ansieht, die wachsende Heterogenität  und Komplexität der Rechenzentren bei gleichbleibenden operativen Ressourcen.

Egal ob Sie planen ein ehemals ausgelagertes Rechenzentrum wieder in Ihren Betrieb zu holen oder sich mit sub-optimalen Bedingungen in Ihrem laufenden Rechenzentrum herumschlagen, es ist wichtig die Ursache der Ineffizienzen zu verstehen und Schritte zu definieren diese in den Griff zu bekommen. Natürlich wäre es besser Ineffizienzen gleich im Ansatz zu eliminieren. Hierbei  könnte ein komplettes Umdenken die besten Voraussetzungen für eine grundlegende Verbesserung der Situation bieten. Sehen wir uns einige der typischen Hindernisse für ein wahrhaft effizientes Rechenzentrums an:

Überbordende Datenkopien

Es ist eine Tatsache dass das Datenwachstum unvermindert steigt. Jedoch, wie IDC in seinem Copy Data Management Report [ID #241047] beschreibt, handelt es sich bei den rasant wachsenden Daten um Kopien von Produktionsdaten, nicht um die eigentlichen Produktionsdaten selbst. Diese Kopien der Produktionsdaten werden separat erstellt und gespeichert, für die unterschiedlichsten Funktionen. Tatsächlich wird heutzutage der größte Teil der Investitionen in Datenspeicher Hard- und Software für die Verwaltung von Datenkopien ausgegeben, anstatt für die wichtigen Produktionsdaten selbst.

Das Resultat: Hyperkomplexe Storage Infrastruktur, verwaiste Kapazitäten und unübersichtliche Gesamtarchitektur. Diese Situation führt zu langen Wartezeiten der Verfügbarkeit, was zu Engpässen für Projekte in der Entwicklung, der Innovation und dem Wachstum des Unternehmens nach sich zieht.

Dies ist auch ein wirtschaftliches Desaster, da die Investitionen in diese Systeme negativ belasten. Um überbordende Datenkopien in den Griff zu bekommen, ist es wichtig das Problem zuerst in seinem ganzen Ausmaß zu erfassen. Hierfür schlägt IDC vor, den Anteil der Datenkopien im Unternehmen mit einer einfachen Formel zu errechnen.

Copy Data Ratio (CDR) ist die Gesamtsumme aller verwalteten Daten, geteilt durch die Menge an eigentlichen Produktionsdaten, multipliziert mit 100. Laut IDC ist eine Endsumme unter 150 optimistisch. Je grösser die Summe, desto dringender der Handlungsbedarf. Eine Summe über 700 wird als Krise betrachtet. Wenn Sie der Summe die Anzahl der separaten Systeme, die in Ihrem Rechenzentrum Datenkopien verwalten, als Bezug hinzufügen, erhalten Sie die nächste Dimension des Problems mit Datenkopien. Das Rechenbeispiel zeigt Ihnen auch den Bedarf an Konsolidierung. IDC weist darauf hin, dass es immer mehr Hersteller und Lösungen gibt, die das Problem der Datenkopien gezielt adressieren.

Anwendungsentwicklung

Es gibt eine aufgestaute Nachfrage für die Entwicklung neuer Anwendungen in Unternehmen, von der Weiterentwicklung bestehender Codes bis zur Unterstützung neuer Unternehmensinitiativen. Die Werkzeuge diese Anwendungen zu entwickeln, sind in der Zwischenzeit sehr benutzerfreundlich und leistungsstark geworden. Die technischen Kapazitäten lokal oder in der Cloud sind heute auch verfügbar und haben die notwendige Elastizität. Leider jedoch, hat die Dateninfrastruktur für Tests, Qualitätssicherung und Staging, welche die Anwendungsentwicklungen unterstützen soll, nicht unbedingt Schritt gehalten. Stellen Sie sich einen typischen Arbeitsablauf vor, in dem ein Entwickler eine Kopie der Produktionsdaten benötigt, um damit zu arbeiten. Gehen wir davon aus, dass diese Daten 2TB groß sind. Der Entwickler beantragt eine Kopie dieser Daten beim Administrator.

Dieser wiederum beantragt  den dafür notwendigen Speicher beim Storage Team. In Anbetracht der Dauer dieses Prozesses, gemessen in Wochen, beantragt der Administrator gleich mehr als 2TB um auf der sicheren Seite zu sein. Das Storage Team weiß, dass der Administrator einen Puffer in seiner Anfrage hat, weiß aber auch, dass der Administrator höchstwahrscheinlich bereits am nächsten Tag mit einer neuen Anfrage kommt und mit einer weiteren am darauffolgenden Tag. Daher stellt das Storage Team den Speicher zur Verfügung und wartet auf die nächste Anfrage.

Der Arbeitsablauf zieht sich über 1 bis 2 Wochen hin und

verursacht Unterbrechungen und Ausfallzeiten im Entwicklungszeitplan. Er wiederholt und multipliziert sich für das Team um die Nutzungsakzeptanz und die Staging Umgebung. Das Resultat sind Projektverzögerungen, die einen direkten Einfluss auf den Umsatz und die Kundenzufriedenheit haben könnten. Mit anderen Worten, Ineffizienz der Infrastruktur reflektieren sich in verlorenem Umsatz und unzufriedenen Kunden.

Die idealen Schritte diese Engpässe zu adressieren, beginnen damit Virtualisierung über die Server und Netzwerk Infrastruktur hinaus, auch im Storage / Datenspeicher Umfeld und in der Verwaltung der zugrunde liegenden Daten einzuführen. Virtuelle Kopien der Produktionsdaten sind besonders wichtig in dieser Wertschöpfungskette. Wenn die Kopien der Produktionsdaten virtualisiert sind, können diese statt in Wochen, in Minuten zur Verfügung gestellt werden. Es ist wichtig dass die gewählte  Lösung Lese und Schreibrechte des Entwicklerteams unterstützt und dies in einer speichereffizienten Weise. Sonst haben Sie statt einem Verfügbarkeitsproblem nun ein anderes kostspieliges Problem, das von zu hohen Kosten für zu viel Speicher.

Datensicherung

Es scheint keine Woche zu vergehen, in der nicht eine neue Studie veröffentlicht wird die den Unterschied aufzeigt, zwischen gewünschter Belastbarkeit und der tatsächlichen Fähigkeit Daten zu sichern, wiederherzustellen um den Geschäftsbetrieb wieder aufzunehmen. Eine Diskrepanz in diesem Bereich hat nichts mit schlechter Planung oder nachlässigen Arbeitsabläufen zu tun, vielmehr mit überbordendem Datenwachstum und einer zu komplexen Infrastruktur. Eine Evaluierung der Systeme im Hinblick auf die benötigten Service Levels wird Lücken und Überschneidungen aufzeigen. Eine hervorragende Gelegenheit Systeme abzulösen und Einsparungen zu realisieren.

Letztlich sollte die gewählte Technologie flexible Service Levels unterstützen, die man individuell auf alle Anwendungen in physischen und virtuellen Umgebungen anwenden kann. Dies ermöglicht die moderne Vision eines Anwendungs-zentrierten, automatisierten Rechenzentrums, in dem die Infrastruktur die Service Levels der Anwendungen unterstützt.

Eine Überwindung der Ineffizienzen im Rechenzentrum kann dramatische Verbesserungen liefern in Punkto Zeitgewinn, Flexibilität,  operativen Kosten, Kapitalaufwand, Return on Investment und der Qualität der Service Levels. Wenn eine eher kontinuierliche Verbesserung bevorzugt wird, kann diese auch schrittweise eingeführt werden. Mit den heutigen Möglichkeiten der Virtualisierung, die sich nun auch über den Storage Bereich und die Verwaltung von Datenkopien der Produktionsumgebung erstreckt, können Infrastrukturprojekte schnell und risikolos durchgeführt und implementiert werden. Damit kann bereits in kurzer Zeit eine erhebliche Konsolidierung realisiert werden, mit den entsprechenden Vorteilen der Vereinfachung, einer erheblichen Kostensenkung und des Zeitgewinns.