Infrastructure Performance Management - 6 Mythen und was dahintersteckt -von Eric Jorgensen, VP Sales EMEA, Virtual Instruments

Das Infrastructure Performance Management (IPM) gewinnt zunehmend an Bedeutung für Unternehmen, die den Betrieb von geschäftskritischen Anwendungen in ihren realen, virtuellen und Cloud-basierten Umgebungen sichern und gleichzeitig Kosten senken wollen.  

  • 11 years ago Posted in

Die Tools für das Application Performance (APM), Network Performance (NPM), und Storage Performance Management (SRM) bieten jedes für sich Einblicke in die Anwendungen, Netzwerke bzw. Storage-Systeme. Doch Unternehmen wollen auf einen Blick sehen können, welche Leistung ihre Infrastruktur als Ganzes liefert. Zahlreiche Unternehmen investieren zu viel Zeit und Mühe in die Optimierung ihrer Systeme, indem sie die zugehörigen Elemente abwechselnd betrachten - und es muss dann sogar noch mehr Aufwand betrieben werden, wenn eine Anwendung plötzlich langsamer läuft und das Problem schnell gelöst werden muss.

Viele Provider haben ein ganz eigenes Interesse daran, die Auslastung einer Infrastruktur nicht zu verbessern und damit die Kosten für ihre Kunden zu senken. Daraus sind verschiedene Mythen entstanden, die dafür sorgen sollen, dass ihre Kunden ein wenig effizientes System auch weiterhin nutzen. In diesem Artikel wollen wir einige dieser Mythen entlarven, Ihnen interessante Informationen über Infrastrukturen bieten, und ein paar Fragen vorschlagen, die Sie stellen sollten:

Mythos: Leistungsspitzen können nur durch Überdimensionierung effektiv gemanagt werden.

Wahr ist: Die Zeiten sind lange vorbei, in denen Systeme überdimensioniert werden mussten, um schnelle Leistungsanstiege oder veränderte Anwendungsanforderungen auffangen zu können. Da die zu verarbeitenden Datenmengen heutzutage um ca. 30-50% pro Jahr zunehmen, treiben CIOs Ihre für die Infrastruktur verantwortlichen Mitarbeiter dazu an, die bestehenden Ressourcen maximal zu nutzen. Das bedeutet, dass die IT-Abteilungen dafür sorgen müssen, dass ausreichend Kapazitäten zur Verfügung stehen, um die Anforderungen der Geschäftstätigkeit zu erfüllen.

Mythos: Auslastung ist gleich Leistung.

Wahr ist: Die Auslastung gibt ausschließlich den Prozentsatz an, der von Servern oder Storage-Systemen von einer bestimmten Kapazität genutzt wird. Eine Infrastruktur kann durchaus noch freie Kapazitäten haben, d. h. nur ungenügend ausgelastet sein, und dennoch keine gute Leistung bringen. In der Vergangenheit war die Auslastung eine nützliche Maßeinheit, um einzuschätzen, was die Leistung eines Systems beeinflussen könnte. Doch das war, als es sich die Unternehmen noch leisten konnten, ihre Systeme überzudimensionieren. Heutzutage reicht es jedoch nicht mehr aus, die Auslastung eines Systems zu messen, um einschätzen zu können, wie Schwankungen der Arbeitslast die Gesamtleistung und die Anwendererfahrung beeinflussen.

Mythos: Das Management einzelner Geräte oder Komponenten fügt sich schließlich zu einem umfassenden Überblick über die Infrastruktur zusammen.

Wahr ist: Große Unternehmen nutzen komplexe, heterogene Infrastrukturen, die aus Einzelkomponenten mehrerer Anbieter bestehen. Die Geräte-spezifischen Tools, messen und werten Daten nur unter ihrem eigenen Gesichtspunkt aus. Sie bieten immer nur einen Ausschnitt des großen Ganzen. Es ist unmöglich, die Leistung aller Geräte einzeln zu messen und einfach zu addieren, um exakte Informationen in Echtzeit über die Leistung eines Systems mit all seinen Hypervisoren-, Server-, System-, Netzwerk- und Storage-Ebenen zu erhalten. Die Leistungskennzahlen der einzelnen Geräte sind nach wie vor wichtig und können Einblicke in die Gesamtleitung und Verfügbarkeit der Infrastruktur bieten. Dennoch müssen sie auf einer Plattform zusammengefasst und in Beziehung gesetzt werden, um so eine objektive Übersicht über das gesamte System zu erhalten.

Mythos: Abfragen in 5- bis 20-minütigen Intervallen sind für virtualisierte und Cloudbasierte Umgebungen ausreichend.

Wahr ist: Die Infrastrukturen von heute sind flexibler und dynamischer als je zuvor, insbesondere weil viele auf Virtualisierungen und Cloud-Computing basieren. In nur wenigen Minuten geschieht so viel, dass Abfragetechnologien, die nur alle 5 bis 20 Minuten die Systemdaten erheben, nicht länger ausreichen. Wenn man sich nur auf solche Technologien verlässt, können vorübergehende Probleme, bzw.  Geister in der Maschine“, die schwerwiegende Folgen für ein Unternehmen haben können, leicht übersehen werden.

Die Leistung eines System muss in Echtzeit gemessen werden, und zwar der Übertragungsrate entsprechend. Das bedeutet eine auf die Mikrosekunde genaue Datenerhebung sowie die Akkumulierung und Übertragung von Daten in Einsekunden-Intervallen. Wenn man genaue Informationen über die Gesamtleistung einer Infrastruktur erhalten möchte, müssen Daten durchgehend erhoben werden, und das mit extrem detailreicher oder endlicher Genauigkeit.

Mythos: Traffic Access Points beeinträchtigen die Leistung einer Infrastruktur.

Wahr ist: Ein Traffic Access Point (TAP) ist ein passiver, bandexterner optischer Splitter, der die Daten, die in einem Glasfaserkabel übertragen werden, aufteilt. In den Rechenzentren von heute, die einen extrem hohen Virtualisierungsgrad aufweisen, wird der Einsatz von TAPs zusehends zur Best Practice und immer mehr branchenführende Unternehmen wie z. B. Corning steigen in den TAP-Markt ein. Die Verwendung von TAPs in Storage Area Networks (SAN) ermöglicht es, die physikalische Ebene zu überwachen und gleichzeitig die Protokoll-Ebene des Fibre Channels zu analysieren. Die in Echtzeit erhobenen Daten sind nützlich, um für die gesamte Infrastruktur eine höhere Leistung, mehr Zuverlässigkeit und eine bessere Auslastung zu erzielen.

Viele weltweit führende Unternehmen verwenden TAPs an allen ihren SAN-Ports, da die Latenzzeiten von Anwendungen oder gar Ausfälle den Verlust von Hunderten oder sogar Tausenden Dollar pro Minute bedeuten. Dabei wiegen die Vorteile und Kostenersparnisse durch schnelle Reaktionszeiten und die Möglichkeit, die Leistung der gesamten Infrastruktur zu optimieren, die Installationskosten bei Weitem auf.

Mythos: Application Performance Management Tools messen die Infrastrukturleistung.

Wahr ist: Application Performance Management (APM) Tools sollten nur eine Ergänzung für Infrastructure Performance Management (IPM) Tools sein. APM-Lösungen kontrollieren und managen die Leistung von Anwendungen, während IPM-Lösungen die Gesamtleistung einer Infrastruktur überwachen. Dazu gehören sowohl die Hardwarekomponenten als auch die virtualisierten und Cloudbasierten Umgebungen. IPM-Lösungen bieten einen Gesamtüberblick über ein IT-System und liefern den notwendigen Kontext, um das Verhalten einzelner Anwendungen besser zu verstehen. Da zwischen Infrastruktur und Anwendung immer mehr Interaktionen stattfinden, ist ein 100%iger Überblick über eine Infrastruktur und die Kontrolle der Leistungen von Anwendungen unerlässlich.

Die Anforderungen von heute: Eine spezielle Infrastructure Performance Management Plattform

Eine speziell für das Infrastructure Performance Management (IPM) designte Plattform bietet einen Überblick über die Leistung und den Zustand von realen, virtuellen und Cloud-basierten Infrastrukturen. Eine IPM-Plattform muss einen systemweiten Überblick über eine Infrastruktur bieten können - von der virtuellen Maschine bis hin zur logischen Speichereinheit.

Die wichtigsten Eigenschaften einer IPM-Plattform sind:

• Kontinuierliche Messung in Echtzeit: Alle Daten müssen in Echtzeit aggregiert und präsentiert werden. Sie müssen in einer Datenbank abgelegt werden und durchgehend referenzierbar sein.

• Objektivität: Eine IPM-Plattform muss einen herstellerunabhängigen Überblick über das gesamte System liefern.

• Heterogenität: Die Fähigkeit, Daten von verschiedenen Geräten in der Infrastruktur zu erheben und abzugleichen.

• Einblicke in das gesamte System: Die Fähigkeit, alle Aktivitäten in der IT-Infrastruktur nachzuverfolgen.

 

Eine IPM-Plattform bietet die Möglichkeit, die Kapazität einer Infrastruktur richtig zu bemessen, die Ressourcenauslastung zu steigern, die Reaktionszeit von Anwendungen zu verkürzen und Probleme aktiv zu erkennen und zu beheben. Dadurch können Service Level Agreements (SLAs) erstellt werden, die optimal auf die geschäftlichen Aktivitäten und Anforderungen eines Unternehmens zugeschnitten sind.

New state-of-the-art data centre features Vultr’s first AMD GPU supercompute cluster.
Only a quarter (25%) think their approach to the cloud is carefully considered and successful.
Moving to AWS Cloud will enable The Co-operative Bank to adopt cutting edge IT Infrastructure.
The global airline group will upgrade the value of its data and get its AI & generative AI ready...
Barracuda Networks’s award-winning Email Protection and Cloud Backup security solutions will be...
Leading company in renewables to leverage HPE’s unique turnkey AI infrastructure solution to...
The four-year project extension focuses on cloud transformation and enhanced operational efficiency...
Businesses in the UK are risking slower development as they fail to fully embrace technologies that...