Traffic-Monitoring der nächsten Generation für moderne Rechenzentren

Über das letzte Jahrzehnt haben technische Verbesserungen und Optimierungen bei Arbeitsprozessen die Art und Weise geändert, wie Rechenzentren entworfen, aufgebaut und verwaltet werden. Von Trevor Dearing, EMEA Marketing Director, Gigamon

  • 10 years ago Posted in

Während Unternehmen durch die Fortschritte in der IT immer leistungsfähiger werden und Mitarbeiter heute Dinge erledigen können, die noch vor wenigen Jahren undenkbar waren, gibt es auch erhebliche Auswirkungen auf den Betrieb von Rechenzentren, die man nicht übersehen darf. IT-Profis müssen mit diesen Veränderungen Schritt halten, damit sie effiziente Prozesse und verlässliche Dienstleistungen sicherstellen können.

Früher reichten einfache, statische Infrastrukturen, um den IT-Betrieb aufrecht zu erhalten. Heutigen Ansprüchen genügen diese hingegen nicht mehr. Immer komplexere Anforderungen machen es schwierig, eine sichere, flexible und zuverlässige Infrastruktur in Rechenzentren umzusetzen. Marktanalyst Gartner hat prognostiziert, dass der weltweite Markt für Cloud-Lösungen von 111 Mrd. Dollar in 2012 auf 131 Mrd. Dollar in 2013 steigt – getrieben durch eine starke Nachfrage nach alle Arten von Cloud-Serviceangeboten. Immer mehr Unternehmen entdecken aufgrund möglicher Kostenvorteile und schnellerer Reaktionszeiten Cloud-Computing für sich.

Diese Entwicklung führt zu einer fundamental veränderten Nachfrage bei Infrastruktur-Lieferanten und Service-Providern. Für diese wird das Bereitstellen von Services immer komplexer.

Zum Beispiel stellen einzelne Geschäftseinheiten innerhalb eines Unternehmens heute völlig verschiedene Anforderungen in punkto Datenabruf und -verwaltung. Das Security-Team verlangt nach Informationen im Zusammenhang mit dem Überwachen von sicherheitsrelevanten Ereignissen. Das Marketing-Team benötigt Daten zum Analysieren der Endkundenerfahrung. Diese Auflistung lässt sich beliebig weiterführen. War der Client früher eine einzelne, statische Instanz, so hat er heute spezifische, facettenreiche Anforderungen. Das gilt insbesondere für öffentliche Clouds, in denen die Forderung nach der Isolation des Datenverkehres, Sicherheit und Datenseparation die Liste notwendiger Werkzeuge verlängert, die der Betreiber für jeden Anwender bereitstellen muss.

Die große Bedeutung des Netzwerk-Monitorings

Bisher haben die Hersteller und Anbieter von Technologie für Rechenzentren große Anstrengungen unternommen, beispielsweise den Stromverbrauch ihrer Produkte zu senken, effiziente Kühlkonzepte zu realisieren und den Platzverbrauch zu minimieren. Erstaunlich wenig wurde jedoch an die grundlegenden Anforderungen der Tools gedacht, die zum Managen, Überwachen und Absichern der veränderten Rechenzentrumsumgebungen nötig sind.

Im bisherigen Ansatz basieren das Verwalten der IT-Infrastruktur und das Analysieren der Kundenerfahrung auf der Überwachung  verschiedener IT-Elemente wie Speichereinheiten, Server und Netzwerkgeräte. Die IT-Abteilung hat die separat erfassten Informationen dann manuell korreliert. Dieser Ansatz ist weit vom Ideal entfernt und nur solange effizient, wie die IT-Infrastruktur statisch und einfach aufgebaut ist. In modernen Umgebungen sind diese alten Monitoring-Tools jedoch ineffektiv. Service Provider benötigen eine netzwerkzentrierte Strategie für das Überwachen des Datenverkehrs in dynamischen Rechenzentren, in denen die Infrastruktur nicht länger in genau abgegrenzten Bereichen installiert wird. Dadurch erhalten Sie die Fähigkeit, eine Brücke zu schlagen zwischen der physikalischen und virtuellen Infrastruktur. Außewwrdem bekommen sie ein besseres Verständnis für die Datenströme innerhalb ihres Netzwerks über das gesamte Unternehmen hinweg. Moderne Monitoring-Tools liefern zudem einen bislang nicht möglichen Einblick in die Nutzungserfahrungen der Anwender. Denn ob diese eher gut oder eher schlecht ausfällt, hängt häufig direkt mit der Netzwerkperformance zusammen.

Einige Betreiber setzen viele verschiedene Monitoring-Werkzeuge ein, zum Beispiel Security Appliances, Performance Management-Systeme, forensische Netzwerk-Analysetools, Applikations-Überwachungslösungen und Netzwerkanalysesysteme. Diese liefern aber jeweils nur einen kleinen Ausschnitt des Gesamtbildes, da sie jeweils nur für bestimmte Einsatzzwecke optimiert sind.

Wurde der Datenverkehr zum Beispiel auf ein einzelnes LAN-Segment oder eine Abteilung begrenzt, beschränkt sich die Visibility des eingesetzten Tools ebenfalls auf diese Parameter. In den bereits angesprochenen statischen IT-Umgebungen mag das gutgehen.

Hier reicht es aus, wenn Netzwerkmanager das Tool in dem Bereich installieren, in dem es den größten Nutzen bringt. Doch wenn geschäftliche Operationen dynamischer werden, ändert sich eben auch dieser Bereich ständig und der Nutzwert des Werkzeugs verringert sich.

Ein weiterer Punkt: Die IT überwindet mehr und mehr den physischen Standort von Unternehmen und wandert in Cloud-Lösungen. Diese Entwicklung erschwert die Situation zusätzlich. Ohne eine durchdachte Netzwerk-Monitoring-Strategie kann die IT hier kaum noch feststellen, wer wann und wo welches IT-Problem hatte.

Sehen, was bislang verborgen war

Unternehmen und Service Provider sehen sich mit dem gleichen Problem konfrontiert: Mehr als 70 verschiedene Anbietern drängen mit ihren Paket-Monitoring-Werkzeugen in den Markt. Eine Herausforderung besteht darin, die für das eigene Projekt richtige Lösung zu wählen und so dafür zu sorgen, dass Datenpakete aus dem Netzwerk zu den entsprechenden Tools gelangen.

Darüber hinaus müssen Service Provider ihren Geschäftsbereichen und Kunden einen direkten Überblick (Visibility) für spezielle Bestände oder Typen von Daten bereitstellen, so dass diese ihre jeweils eigenen Anforderungen erfüllen können. Dies gilt besonders in Einrichtungen, die von mehreren internen und/oder externen

Kunden gemeinsam genutzt werden und in denen alle Nutzer unterschiedliche Informationseinheiten benötigen oder die Fähigkeit haben müssen, Monitoring-Regeln nach ihren Bedürfnissen anpassen zu können.

IT-Infrastrukturen sind in der Regel so entworfen, dass sie Elemente wie Server, Applikationen, Storage- und Netzwerkprodukte nutzen, während Netzwerke normalerweise die Core-, Aggregations- und Zugriffs-Ebene enthalten. Doch wenn jede Verbindung in diesem Netzwerk maximal ausgelastet ist, bleibt keine Bandbreite mehr übrig für den Management-Datenverkehr, den das Betreiberteam benötigt. Oder für die abgestimmten Daten, die ein Unternehmen für die Analyse fundierter Entscheidungen benötigt.

Maßgeschneiderter Ansatz

2005 hat Gigamon den neuen IT-Infrastruktur-Layer eingeführt – den Visibility Fabric Layer. Dabei handelt es sich um ein externes Netzwerk, das Monitoring- und Analysedaten in voller Leitungsgeschwindigkeit für 1, 10 und 40 GBit/s-Netzwerkverbindungen überträgt und dadurch das Produktivnetzwerk entlastet. Mit seinen Produkten, die jede Ebene der IT-Infrastruktur optimieren – inklusive virtueller Netzwerke und Software-definierten Rechenzentren – ermöglicht Gigamon für alle Werkzeuge eine umfassende Visibility.

Durch eine zusätzliche Optimierung der Visibility Fabric können IT-Organisationen und Cloud Service Provider nun endlich Visibility als Dienst (Visibility as a Service, VaaS) an mehrere unterschiedliche Interessenvertreter bereitstellen. Das bedeutet, dass Anwender innerhalb eines Rechenzentrums die Visibility erhalten, die sie für ihre individuellen Anforderungen benötigen. Sowohl IT-Abteilungen oder andere Geschäftsbereiche innerhalb eines Unternehmens als auch unterschiedliche Kunden innerhalb einer Cloud-Umgebung können einen Nutzen aus der Lösung ziehen.

Dank dieser Fähigkeit kann sich das Marketingteam zum Beispiel ein umfassendes Bild über die Kundenerfahrung beim Besuch der eigenen Website machen. Auf dieser Basis können die Mitarbeiter Entscheidungen treffen, die sowohl die Endkundenerfahrung verbessert als auch dazu beiträgt, Probleme schneller zu isolieren, die Kunden möglicherweise gehabt haben. Andere Teams können Daten einsehen und extrahieren, die relevant für ihre eigene Funktion im Unternehmen sind – ohne die Monitoring-Dienste anderer Benutzer oder Geschäftsfunktionen zu beeinträchtigen und ohne vorhandene Tools im Netzwerk zu überlasten.

Wenn Cloud Service Provider Lösungen wie diese anbieten, profitieren sie von einem enormen Wettbewerbsvorsprung. Sie können flexiblere Services anbieten, die einen großen Unterschied in den heutigen anspruchsvollen IT-Umgebungen ausmachen.

With advanced computational methods, the companies scanned billions of detections, discovering...
HashiCorp Cloud Platform (HCP) enables enterprise customers to do cloud right to increase speed,...
ManagementStudio says that the UK’s largest retail bank has migrated 14,000 desktops from Citrix...
The World Squash Federation (WSF), the international federation responsible for squash, has signed...
Acquisition enables Commvault to solve a critical cyber resilience challenge facing enterprises...
Singtel among telco partners working with Vultr to provide cloud infrastructure that reduces...
Nerdio releases new features infusing AI capabilities and streamlining management to elevate IT...
Study cites companies’ inability to gain visibility at the architecture level is blowing out...