Die Auswirkungen von Big Data auf das Rechenzentrum der Zukunft von Achim Gebhardt, Sales Director Germany, Violin Memory

Der Begriff Big Data hat nicht nur mit der Größe der Daten zu tun. Vielmehr handelt es sich um die wachsende Menge an Informationen, die Unternehmen und auch Verbraucher jeden Tag produzieren – sei es über Mobilgeräte, Social Media, Cloud Computing usw… Unternehmen müssen dabei auch beachten, dass die Anforderungen hinsichtlich der Geschwindigkeit der Datenbereitstellung und der Performance ebenfalls steigen

Jeden Tag werden 2,5 Trillionen Byte an Daten erzeugt – das entspricht 250 Millionen DVDs in nur 24 Stunden. Wir reden mittlerweile von unglaublichen Datenmengen, die Unternehmen zu analytischen Zwecken nutzen – nämlich zur Analyse und Optimierung ihrer Prozesse, um die Umsätze zu steigern, die Kosten zu reduzieren und die Kundenbetreuung zu verbessern.

Schneller ist besser

Die Geschwindigkeit spielt eine immer größere Rolle. Ein schnellerer Zugriff auf Kundentransaktionen kann beispielsweise Entscheidungen hinsichtlich der Lagerbestände beeinflussen. Live-Daten aktueller Sportereignissen wirken sich sofort auf die Wettquoten aus. Lassen sich ältere Kundendaten schneller abrufen, können mehr Daten im selben Zeitrahmen analysiert werden.Ein weiterer wichtiger Faktor ist die Möglichkeit, komplexe Verbindungen zwischen unterschiedlichen Datensätzen abzuleiten und sich damit vom Mitbewerb abzusetzen. Die Vorteile der Datenoptimierung führen dazu, dass Big Data-Analytik zur Strategie vieler öffentlicher und privater Unternehmen in den kommenden fünf Jahren gehören wird.

Die Festplatte erreicht ihre Grenzen

Bisher war es nicht möglich, auf eine solche Menge an Daten gleichzeitig zuzugreifen und diese zu analysieren. Die Standard-Methode bestand darin, die sogenannte „Sharding“-Technik anzuwenden. Diese sah vor, kleinere handliche Datenblöcke zu verarbeiten und zu analysieren und so Business Intelligence zur Entscheidungsfindung zu gewinnen. Diese Datenduplizierung nahm zwar eine gewisse Zeit in Anspruch, ermöglichte aber eine schnellere Berichterstattung und Analyse aufgrund der kleineren Datenmenge. Die Quelldaten abzufragen war allerdings  aufgrund der langsamen Performance traditioneller Speichersysteme nicht praktikabel.

Dieser Ansatz war auch vor dem massiven Wachstum von Big Data nicht ideal, aber jetzt lassen sich das Datenvolumen und die Geschwindigkeit der Veränderungen nicht mehr bewältigen. Dazu kommt das sogenannte „Vendor Lock-In“ mit dem dazugehörigen Mangel an Flexibilität und teilbaren Ressourcen.

Rechenzentren verlassen sich seit Jahrzehnten auf Disk-Technologie. Jetzt hat diese Technologie aber ihre physikalischen Grenzen erreicht – was nun?

Speichertechnologie für Big Data-Analytik

RAM-basierte SSD-Technologien waren vielversprechend für Echtzeit-Analytik, denn sie bieten niedrige Latenzzeiten und kommen ohne Auszeiten aus. Sie haben aber einige Nachteile, was Kosten, Skalierbarkeit und Hochverfügbarkeit angeht.

Eine neue Lösung muss also her. Die Flash-Technologie variiert von einem USB-Stick bis hin zu Systemen, die Daten für internationale Konzerne speichern können. Flash-basierte Speichersysteme der Enterprise-Klasse können große Datenvolumen zu höchsten Geschwindigkeiten verarbeiten. Dank der Möglichkeit, mehr geschäftsrelevante Ergebnisse aus den Quelldaten abzuleiten, stellen Flash Memory Arrays einen Meilenstein für die Weiterentwicklung des Rechenzentrums dar.

Die beeindruckend schnelle Verarbeitung eines Flash Memory-Systems beeinflusst die Art und Weise, in der Unternehmen Daten handhaben und bearbeiten. Die Technologie sorgt dafür, dass die Performance-Anforderungen für Big Data, Analytik und komplexe Ereignisverarbeitung auch in Zukunft erfüllt werden. Die erheblichen Platzersparnisse sowie die Energieeffizienz und optimale Kühlleistung führen zu niedrigeren Gebäude- und Betriebskosten im Rechenzentrum.

Und was ist mit Virtualisierung? Auch wenn diese Technologien seit einigen Jahren zum Rechenzentrumsbestand gehören, haben sie durch Flash Memory-Systeme einen Performance- und Funktionsschub erhalten.

Integration und Innovation

Das Rechenzentrum ist im Wandel. In der Zukunft werden isolierte festplatten-basierte Datenspeicher unterschiedlicher Applikationen der Vergangenheit angehören. Das Rechenzentrum wird zur flexiblen, ressourcenbasierten Infrastruktur. Es wird nicht mehr möglich sein, genau zu erkennen, welche Applikation in einem einzelnen Gehäuse läuft. Jede Reihe wird aus erweiterbaren Ressourcen bestehen – sei es Rechen- oder Netzwerkressourcen, hochperformanter Flash-Storage oder selten abgefragter diskbasierter Archivspeicher. Diese flexible Infrastruktur wird sich zudem einfacher den sich verändernden Anforderungen moderner Workloads anpassen lassen und bietet somit Zukunftssicherheit und Investionsschutz.

Checkliste: Hauptkriterien für Flash Storage der Enterprise-Klasse:

·         Hohe Verfügbarkeit und Skalierbarkeit

·         Voraussehbare Lese- UND Schreib-Performance mit niedrigen Latenzzeiten

·         Unterstützung für gemischte Workloads

·         Uneingeschränkte Mandantenfähigkeit

·         Hot Swap-fähig

·         Betriebliche Integration

HashiCorp Cloud Platform (HCP) enables enterprise customers to do cloud right to increase speed,...
ManagementStudio says that the UK’s largest retail bank has migrated 14,000 desktops from Citrix...
The World Squash Federation (WSF), the international federation responsible for squash, has signed...
Acquisition enables Commvault to solve a critical cyber resilience challenge facing enterprises...
Singtel among telco partners working with Vultr to provide cloud infrastructure that reduces...
Nerdio releases new features infusing AI capabilities and streamlining management to elevate IT...
Study cites companies’ inability to gain visibility at the architecture level is blowing out...
Next generation product set provides end-to-end, digitally sovereign cloud services.