Datenverlust – für viele Unternehmen eine Katastrophe, wenn sie keine verlässlichen Backups erstellt haben. Und das ist bei zu vielen Konzernen der Fall. Die Gefahr ist präsenter als viele denken, dabei ist effizienter Schutz nicht schwierig umzusetzen – wenn man weiß wie.
Backup, Storage, Managing – Wie funktioniert der effiziente Schutz vor Datenverlust?
Und plötzlich waren alle Daten weg. Fast jeder hat es schon einmal erlebt – Datenverlust. Ärgerlich, wenn es persönliche Daten, wie Bilder, Videos oder Kontakte, auf dem eigenen Rechner oder dem Smartphone betrifft. Katastrophal jedoch, wenn es dabei um Unternehmensinformationen geht. Denn hier entsteht oft ein enormer wirtschaftlicher Schaden, vom Image des Unternehmens als vertrauenswürdigem Partner ganz zu Schweigen.
Torben Belz, Geschäftsführer der PLUTEX GmbH aus Bremen, weiß:
„Letzte Chance ist dann nur das Disaster Recovery in Gestalt einer Datenrettung. Doch die ist teuer und nimmt viel Zeit in Anspruch, in der das Business stillsteht.“
Statt also nachträglich zu versuchen, den Schaden gutzumachen und das in vielerlei Hinsicht teuer zu zahlen, sollten Unternehmen besser vorbeugen; Und den Supergau gar nicht erst eintreten lassen.
Datenverlust – der reale Mythos
Viele Unternehmen behandeln das Risiko des Datenverlustes noch immer stiefmütterlich. Solange die Systeme stabil sind, kann ja nichts passieren. Das Thema erscheint eher wie ein sagenumwobener Mythos, von dem man zwar ab und an hört, aber der einen selbst nicht treffen kann. Doch der Global Data Protection Index, mit dem Dell Technologies regelmäßig Zahlen zum Thema erhebt, offenbart die Realität. So zeichnen sich seit der ersten Umfrage 2016 stetig steigende Tendenzen ab. Das betrifft sowohl die Anzahl der Unternehmen, die Opfer eines Systemausfalls, einer Cyberattacke oder eines Datenverlustes werden, als auch die Tatsache, dass Unternehmen ihre Daten immer häufiger nicht wiederherstellen können.
Auch fallen in betroffenen Unternehmen immer höhere Kosten für Wiederherstellung und Schadensbehebung an. Als Grund lässt sich hier das exponentielle Wachstum der Datenmengen nennen, das sich seit 2016 verzehnfacht hat. Und da kommen wieder die stabilen Systeme ins Spiel. Mehr Anwendungen, Updates und Daten belasten das stabilste System mit der Zeit und überlasten es irgendwann – es wird langsam, instabil und bricht über kurz oder lang zusammen.
Statt zu speichern, besser strukturiert sichern
Um einen System-Zusammenbruch zu verhindern, ist strukturiertes Datenmanagement in den letzten Jahren immer wichtiger geworden. Backup, Storage und Managing tragen maßgeblich zum Schutz vor Datenverlust bei.
Torben Belz ergänzt:
„Wer denkt, dass speichern gleich Backup ist, der irrt. Der Unterschied liegt in der sinnvollen Struktur der Art der Speicherung und bedeutet, dass die Daten entweder nur gespeichert oder sicher gespeichert sind. Hier hilft es, wenn die eingesetzten Lösungen leicht bedienbar sind, damit auch IT-ferne Anwender im Alltag ohne Probleme Daten sichern können.“
Intuitiv bedienbare Interfaces, mit denen Nutzer über wenige Klicks Backup-Verfahren in Gang setzen können, lassen sich ohne zusätzlichen Zeitaufwand im Arbeitsalltag integrieren. Ein weiterer wichtiger Punkt beim effizienten Backup ist die Wahrung der Rechtssicherheit. Dazu sollte das Backup auf mehrfach redundanten Systemen an geografisch unterschiedlichen Orten erfolgen. Hier gibt es mittlerweile auch Tools, die vollkommen autonom mittels Taskplaner arbeiten, jede Sicherung dokumentieren und die verschlüsselte Datenübertragung mit einem geringen Datenvolumen vornehmen, so zum Beispiel beim PLUTEXbackup.
Belz verdeutlicht:
„Benötigt die Datenübertragung nur geringes Datenvolumen, kommt dies Unternehmen zugute, deren UMTS- oder ISDN-Verbindungen nicht auf Highspeed arbeiten oder deren Mitarbeiter viel im Außendienst unterwegs sind.“
Weitere Vertrauenskriterien sind die TÜV-Süd-Siegel für IT- und Informationssicherheit (ISO/IEC 27001) sowie für Qualitätsmanagement (ISO/IEC 9001).
Auch digitale Aktenschränke können platzen
Der Platz, der für die Datenmengen zur Verfügung steht, muss ausreichend sein und zur Nutzung der Daten passen. So bevorzugen viele Mitarbeiter einfach den Speicher des Arbeitsplatz-Computers. Um schnell auf aktuell genutzte Daten zugreifen zu können, macht das auch durchaus Sinn, doch eignet sich dieser Bereich nicht zum gemeinsamen Arbeiten an den Dokumenten und schon gar nicht zur langfristigen sicheren Speicherung. Um beides zu gewährleisten, sollten Unternehmen ihre Daten immer zentral auf einem Server ablegen, auf den die Mitarbeiter über ihren Arbeitsplatzrechner zugreifen. Die auf dem Server zentral abgelegten Daten schützt eine tägliche Sicherheitskopie. Diese speichert zusätzlich ein weiterer, physisch und geografisch getrennter, Server. Bei professionellen Managed Service Providern bestehen Server, auf denen Sicherheitskopien und Backups abgelegt werden, auch aus speziellen langlebigen Hardwarekomponenten, die robuster sind als Festplatten für den „täglichen Gebrauch“.
Managed Services sind wiederkehrende IT-Dienstleistungen, deren Umfang, Dauer und Art bereits vor Beginn genau definiert wird.
Torben Belz:
„Bei Festplatten dürfen sich Unternehmen nicht auf den MTBF-Wert verlassen. Er gibt nicht, wie von vielen angenommen, die Zeitspanne bis zum ersten Ausfall an, sondern die Zeit zwischen der ersten Reparatur und der zweiten. Abgesehen davon sind diese Werte nicht verlässlich. Eine Festplatte kann immer ausfallen, es kommt auch stark auf ihre Auslastung an.“
Unkomplizierte Lösungen, wie PLUTEXstorage, ermöglichen Nutzern über den Arbeitsrechner jederzeit auf den externen Storage zuzugreifen und dabei auf Basis von Verschlüsselung wie SSH, TLS oder SMB 3.0 die Sicherheit bei der Datenübertragung beizubehalten.
Stetige Pflege für stabile Sicherheit
Für langfristige Stabilität und zufriedenstellende Performance der IT-Systeme benötigen diese kontinuierliche Pflege. Hier steht in erster Instanz das Monitoring, das zunächst eine Beobachtungsfunktion ist.
Aufzeichnungen zu Transfergeschwindigkeiten, Zugriffszeiten und -mengen sowie Lastspitzen können von IT-Fachkräften in Bezug gesetzt werden und somit Prognosen über die Entwicklung der Systemlandschaft und potenzielle Gefahrenquellen geben, bevor es zu einem Ausfall kommt. Dafür ist allerdings ein weitreichendes IT-Know-how nötig und eine stetige Beobachtung. Analysen von Momentaufzeichnungen sagen wenig aus.
Muss ein System angepasst werden, muss das nicht automatisch mit hohen Investitionskosten einhergehen. Externe Serviceprovider bieten hier die Option, Hardware und Service zu mieten. So bleiben Anwender flexibler beim Systemaufbau und zahlen nur, was wirklich gebraucht wird. Auch bei Pflege, Wartung und sogar Ausfallmanagement können Rechenzentren einen großen Mehrwert bieten. Aufgrund ihrer Professionalisierung gibt es 24/7-Bereitschaften. Sollte doch einmal ein Ausfall oder Hackerangriff stattfinden, steht ein Experte unmittelbar zur Stelle, eine Systemwiederherstellung dauert dann in der Regel nur wenige Stunden.