Großzügige Backup-Budgets und verschiedene Möglichkeiten der Absicherung sind bei zahlreichen mittelständischen Unternehmen und gemeinnützigen Organisationen oder auch im Bildungswesen hingegen oft Fehlanzeige. Nur sehr wenige können mit dem rasant wachsenden Bedarf an Speicherplatz mithalten. Darüber hinaus fehlen in den meisten Fällen geeignete Richtlinien oder ausreichend geschulte und zeitlich verfügbare Mitarbeiter, um notwendige Aufgaben korrekt auszuführen. Nicht zuletzt müssen kleinere Unternehmen dabei mit bereits vorhandener Hard- und Software zurechtkommen, die oftmals längst nicht mehr den aktuellen Standards entspricht. So können sie sich noch nicht einmal sicher sein, dass Daten im Fall der Fälle auch tatsächlich problemlos wiederhergestellt werden können. Die Konsequenz: Scheitert die Wiederherstellung, ist die Existenz schneller bedroht, als man denken kann. All dies macht deutlich, wie dringend es einer effizienten, erschwinglichen Backup-Lösung bedarf, die sowohl Anforderungen von großen als auch kleinen Unternehmen erfüllt – klassische Backup-Methoden helfen hier nicht mehr weiter.
Gescheitert: die traditionelle Datensicherung am Ende
Dave Russell, Vizepräsident von Gartner und verantwortlich für Speichertechnologien und -strategien beim führenden IT-Marktforscher, ist der Auffassung, dass es in der Tat grundlegende Probleme mit Backups gebe. In seinem Bericht „The Broken State of Backup“ vertritt Russell die These, dass Unternehmen sich darauf gefasst machen müssen, ihre Investitionen in Backup- und Recovery-Lösungen grundlegend neu zu planen. Er unterstreicht seine Aussage mit folgenden Beispielen zu weit verbreiteten Problemen in diesem Bereich:
Trotz allen digitalen Fortschritts, der unwiderruflich Einzug in Unternehmen gehalten hat, werden für Backups immer noch besonders fehleranfällige Bandlaufwerke herangezogen. Doch dabei bleibt es nicht. Es besteht auch die Gefahr, dass die Datensicherung in zu großen Abständen erfolgt und Daten zum Zeitpunkt der Sicherung bereits veraltet sind. Wird zudem auf redundante Backups verzichtet, ist bei Ausfall des Speichermediums guter Rat teuer. Setzen Unternehmen hingegen auf verschiedene Speichertechnologien, kann deren Integration zu einer weiteren Herausforderung werden.Weitere Problemfelder sind Backups von virtuellen Maschinen und die von immer anspruchsvolleren Kunden gewünschte Hochverfügbarkeit von Daten. Und natürlich dürfen all die vielen Compliance-Standards nicht vergessen werden, die inzwischen zahlreiche Unternehmen aus unterschiedlichsten Branchen einzuhalten haben.
Die Zukunft: schnelle und verlässliche Backups
Wurde ein Backup abgeschlossen, ist noch längst nicht gesagt, dass es tatsächlich erfolgreich war. Denn laut Gartner verlaufen in einem normalen Rechenzentrum nur 85 Prozent aller Datensicherungen wie gewünscht. Bei extern angefertigten Backups, etwa in Zweigniederlassungen, sinkt diese Erfolgsquote sogar auf 75 Prozent. Oftmals wird dies leider jedoch erst dann festgestellt, wenn es an die Wiederherstellung von Daten geht. Somit ist ein radikales Umdenken gefragt: Daten müssen in Kombination mit besonders schneller Backup-Software auch in der Cloud gesichert werden, um gängige Backup-Probleme in den Griff zu bekommen.Sowohl Klein- als auch Großunternehmen sowie Service-Provider, die Kunden jeder Größe betreuen, sind auf eine hohe Backup-Geschwindigkeit und die vollständige Verschlüsselung zu sichernder Daten angewiesen. Genau diese Anforderung erfüllen in der Cloud beheimatete Backup-Dienste. Sie sorgen für eine rasante, geschützte Speicherung und nahezu ebenso schnelle Rekonstruktion von Daten – binnen Sekunden oder Minuten statt Tagen oder Wochen –, um Ausfallzeiten zu minimieren.
Die Revolution in der Wiederherstellung von Daten
Ob bei komplettem Datenverlust infolge von Festplattenabstürzen, höherer Gewalt oder Diebstahl: Cloud-basierte Backup-Dienste bieten verschiedene Möglichkeiten, geschäftskritische Daten zeitsparend wiederherzustellen. Sollte der Faktor Zeit keine Rolle spielen, lassen sich beschädigte Speichermedien auch auf dem Postweg an Spezialisten zur Datenrettung schicken. Doch nur sehr selten können längere Wartezeiten in Kauf genommen werden. In den meisten Fällen ist es für Unternehmen unerlässlich, besonders wichtige Daten umgehend aus der Cloud wiederherstellen zu können. Nur so kommen geschäftsentscheidende Abläufe nicht zum Erliegen.
Dateien mit einer niedrigeren Priorität können anschließend durch externe Experten rekonstruiert oder ebenfalls aus der Cloud wiederherstellt werden, sofern sie entsprechend gesichert wurden. Für Anbieter von Cloud-basierten Backup-Services steht an erster Stelle, den Exchange-Server – das Rückgrat vieler Unternehmenskunden – und grundlegende Applikationen schnellstmöglich wiederherzustellen. Häufig sind alle Arbeiten jedoch so schnell erledigt, dass Probleme zumindest von Mitarbeitern unbemerkt bleiben.
Unternehmen können den Umfang der Wiederherstellung flexibel steuern und sich auf eine einzelne oder auch gleich mehrere Dateien konzentrieren. Ebenso lassen sich Verzeichnisse oder ganze Festplatten rekonstruieren. In besonders dringenden Fällen, bei denen es auf jede Minute ankommt, helfen virtuelle Laufwerke, Dateien aus Backups abzurufen, ohne extra eine Wiederherstellung anstoßen zu müssen. Anwender können über virtuelle Speichermedien sogar persönliche Dateien ohne Unterstützung durch Administratoren rekonstruieren – ein Zeitvorteil für alle Beteiligten. Nicht zuletzt erfolgt die Wiederherstellung im Handumdrehen, da ausschließlich Daten mit hoher Priorität zu berücksichtigen sind, die sich zudem dank Deduplizierung auf 70 Prozent der Originalgröße komprimieren lassen.
Empfohlene Backup-Methode: Disk-to-Disk-to-Cloud (D2D2C)
Storage-Experten sehen in Disk-to-Disk-to-Cloud (D2D2C) den idealen Backup-Ansatz. Dank hoher Skalierbarkeit kann das durch Backups stetig wachsende Datenvolumen problemlos bewältigt werden. Auch die Wiederherstellung erfolgt absolut zuverlässig. Bei D2D2C werden Daten zunächst von der lokalen Festplatte auf einen unternehmensinternen Backup-Server übertragen. Die Vorteile: Daten lassen sich zeitsparend im Netzwerk sichern und von schnellen Festplatten vor Ort ebenso zeitsparend rekonstruieren. Plus: Die erste Backup-Kopie steht jederzeit unter direkter Kontrolle des Unternehmens.
Darüber hinaus gibt es eine zweite Backup-Ebene in der Cloud. Ihr Vorzug besteht darin, dass für Unternehmen keine Kosten hinsichtlich der benötigten Infrastruktur und deren Management anfallen. Einen kompetenten Backup-Provider vorausgesetzt, laufen Datensicherungen in der Cloud ohne jeglichen Aufwand für Kunden ab.
Unternehmen sollten bei der Suche nach einem passenden Provider im Hinterkopf behalten, dass D2D2C implementiert werden kann, ohne sich für zusätzliche Software in Unkosten stürzen zu müssen. Im Idealfall werden Backup-Daten gleichzeitig auf einer lokalen Festplatte und in der Cloud vorgehalten. Unternehmensintern lässt sich ein NAS, ein freigegebener Netzwerkordner oder sogar ein standardmäßiger Client verwenden, die allesamt einen raschen Zugriff ermöglichen. Im Zuge der Wiederherstellung von Daten ermittelt die Backup-Lösung, von welchem Speicherort sich Dateien am vorteilhaftesten abrufen lassen, aus der Cloud oder dem lokalen Netzwerk.
Mit der Hybrid-Architektur von D2D2C (auch als „hybrides Cloud-Backup“ bezeichnet) machen sich Unternehmen bei Wiederherstellung und Disaster Recovery nicht gänzlich von der Cloud abhängig. Zumal aus Gründen der Schnelligkeit überwiegend auf lokal gespeicherte Backups zurückgegriffen wird, während das Pendant in der Cloud stärker für umfassende Disaster Recovery herangezogen wird.
Neue Wege gehen
Althergebrachte Lösungen haben schon viel zu lange den Backup-Bereich dominiert. Produkte von Unternehmen wie IASO, das zu GFI Software gehört, sorgen mit erstklassiger Performance, D2D2C und besonders effektiver Datenbereinigung per Deduplizierung für einen lang erwarteten Fortschritt. Laut Gartner sind es insbesondere kleine, reaktionsschnelle Innovatoren, die den Markt mit entscheidenden Neuerungen bereichern. Ihre Lösungen sorgen für höhere Effizienz, lassen sich ganz nach Bedarf skalieren und ermöglichen ein zuverlässiges Sichern und Wiederherstellen von Daten.
Darüber hinaus können sie einfacher verwaltet und aktualisiert werden. Gartner empfiehlt, bei der Suche nach entsprechenden Tools auf neuartige Lösungen und Technologien zu achten und dabei offen für Anbieter zu sein, die nicht zu den bekannten Branchengrößen zählen. Entscheidungen sollten unter Berücksichtigung eines Leistungsangebots mit strategischen Vorteilen in Form von D2D2C und Deduplizierung erfolgen.
Fazit
Die Datensicherung in mittelständischen Unternehmen war bislang mit einem grundlegenden Problem verbunden: dem zu hohen finanziellen und zeitlichen Aufwand für Beschaffung, Konfigurierung, Verwaltung und Aktualisierung erforderlicher Komponenten. Und da Backups im Gegensatz zum E-Commerce oder Customer Relationship Management nicht umsatzfördernd sind, konnten sich Entscheider bislang nur selten zu entsprechenden Investitionen durchringen.
Doch dieses Argument hat keinen Bestand mehr. Denn eine schnelle, sichere und zuverlässige Datensicherung ist inzwischen geschäftsentscheidend – die Auswahl einer passenden Lösung mit Unterstützung der Cloud hat höchste Priorität.