Der Weg zu erfolgreichen Big-Data-Projekten von Autor:  Paul Griffin, Connect Product Manager bei Progress Software

Es ist nicht damit zu rechnen, dass Big Data wieder aus der IT-Diskussion verschwinden wird und nur eine vorübergehende Mode ist. Der Begriff beschreibt Herausforderungen, die viele Unternehmen umtreiben: explodierende Datenmengen, die Geschwindigkeit, mit der neue Daten entstehen, die Unterschiedlichkeit der Quellen und Inhalte und nicht zuletzt der steigende Bedarf an Echtzeit-Analysen. Sowohl die aus internen Beständen, aber auch die aus externen Quellen stammenden Datenmengen, wie solche von RFID-Lesegeräten, aus Sensornetzen in der Fertigung und aus Social-Media-Plattformen, bieten Unternehmen vielfältige Möglichkeiten für neue, geschäftsrelevante Erkenntnisse.

Sicher ist: Big Data verändert die Arbeitswelt. Entscheidend ist, mit den richtigen Methoden und Werkzeugen die Datenberge zu bearbeiten, wobei die Größe für jedes Unternehmen relativ ist. Bei Kleinunternehmen und im Mittelstand können schon mehrere Gigabyte an Daten eine ungewöhnlich große Menge darstellen, die möglichst in Echtzeit zu analysieren ist. Für Konzerne beginnt Big Data erst bei einer Datenmenge von mehreren Hundert Terabyte.

Gesucht wird dabei immer nach Mustern, Ähnlichkeiten, Zusammenhängen und Diskrepanzen. Produzierende Unternehmen aus der Konsumgüterbranche etwa wollen verstehen, wie Verbraucher auf ihre Produkte oder eine konkrete Vertriebskampagne reagieren. Dazu müssen Daten aus internen und externen Quellen in Echtzeit zusammengeführt werden. Handelsunternehmen können Sonderaktionen auch bei umfangreichem Produktportfolio und einem großen Filialnetz in großer Präzision und Geschwindigkeit planen, deren Wirkung kontrollieren und bei Bedarf nachsteuern. Wichtig dabei ist, auch alle relevanten Einflussfaktoren wie lokaler Wettbewerb, Kundenstruktur oder andere unvorhergesehene Ereignisse zu berücksichtigen.

Dafür müssen Unternehmen aber die technischen Voraussetzungen schaffen, insbesondere auf den Gebieten Daten-Connectivity und Middleware. Beim Datenimport und -export gilt es die traditionellen relationalen und transaktionalen Systeme, aber auch neuere Verfahren wie NoSQL sowie hochskalierbare Analyseplattformen wie Hadoop oder Map-R einzubeziehen, die eine parallele Verarbeitung großer Datenmengen ermöglichen. Dabei geht es um typische Einsatzgebiete von Business Intelligence wie Data Warehousing, Data Migration, Data Replication und Data Analysis. Die Datenbankzugriffe und deren Performance sind entscheidend für den Erfolg von Big-Data-Projekten. Unternehmen benötigen daher standardbasierte, vollständig interoperable Datenbanktreiber,  mit denen sie ihre Applikationen funktional erweitern können, ohne dass sie den Programmcode der Anwendungen ändern müssen. Im Bereich der Daten-Connectivity bildet der hochperformante, standardbasierte Zugriff auf alle wichtigen relationalen Datenbanken via ODBC, JDBC oder ADO.NET ein Herzstück. Damit entsteht eine ausbaufähige Infrastruktur für einen schnellen und effizienten Datenaustausch bei Big-Data-Anwendungen.

TMF Group, a leading provider of critical administrative services for global businesses, turned to...
Strengthening its cloud credentials as part of its mission to champion the broader UK tech sector...
Nearly all UK IT managers surveyed (98%) state cloud investment is an organisational priority for...
LetsGetChecked is a global healthcare solutions company that provides the tools to manage health...
Node4 to the rescue.
Commvault provides cloud-first organisations with greater choice and flexibility to protect and...
On the morning of September 20, Executive Director of the Board of Huawei and CEO of Huawei Cloud...
Global IT Business-to-Business (B2B) revenues, coming from data centers, IT services and devices,...