- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Georedundanz gebender Rechenzentren


Rechenzentren: Die Herausforderungen sind Migration, neue Technologien und eine Anpassung der Cloud Computing-Strategie
Empfehlungen des BSI für den sicheren Betrieb von Rechenzentren gelten vielen Organisationen als Richtschnur für den sicheren IT-Betrieb


- Anzeigen -





Von Johan van den Boogaart, Zerto

Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI "Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" genau dokumentiert.

Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern. Mit der neuen, im Dezember 2018 veröffentlichten Empfehlung, hebt das BSI diese Distanz drastisch an. "Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben", führt das BSI in seinen Standort-Kriterien unter Punkt 3.3 aus - 40-mal so viel wie bisher.

"Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar", so das BSI weiter, " ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen". Doch auch dann, sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.

Der Grund die Entfernung anzuheben, liegt laut BSI darin, dass es nicht möglich sei, "zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen". Im Klartext geht es um regionale Katastrophen, die auf einen Schlag beide Rechenzentren ausfallen lassen könnten. Dazu zählen neben Naturkatastrophen wie Überschwemmungen, Großbrände, Erdbeben, Vulkanausbrüchen oder Tsunamis auch von Menschenhand gemachte Unglücke, wie etwa Störfälle in Atommeilern. Für Betreiber von Rechenzentren, insbesondere, die vom Gesetzgeber als "kritische Infrastrukturen" eingestuften, hat diese Änderung weitreichende Folgen.

Empfehlungen des BSI für den sicheren Betrieb von Rechenzentren gelten vielen Organisationen als Richtschnur für den sicheren IT-Betrieb. Viele Branchen folgen den Empfehlungen deshalb freiwillig, andere, wie etwa die Bankenbranche, werden von ihren eigenen Verbänden bindend zur Einhaltung der Richtlinien des BSI angehalten.

Die Herausforderungen sind Migration, neue Technologien und eine Anpassung der Cloud Computing-Strategie
Die neuen Kriterien des BSI für die Standortwahl hochverfügbarer und georedundanter Rechenzentren werden Unternehmen kurzfristig vor zahlreichende Herausforderungen stellen und vielerorts eine Anpassung der heutigen DR-Strategie erfordern.

Unternehmen, die die bisher empfohlenen fünf Kilometer zwischen ihren georedundanten Rechenzentren einhielten, müssen sich nun nach mindestens einem neuen Standort für das zweite Rechenzentrum umschauen. Und das wird kein Kinderspiel, bedeutet der Wechsel doch eine umfangreiche Migration von Infrastruktur, Daten und aktiven Workloads. In vielen Fällen werden Organisationen ihre heutigen Disaster-Recovery-Strategien überdenken und entsprechend anpassen müssen.

Neue Voraussetzungen haben direkte Folgen für BC/DR
Auch auf die von vielen Unternehmen genutzten Systeme für BC/DR, die auf Technologien wie synchroner Spiegelung, Backups und Snapshots aufbauen, hat die Empfehlung Folgen: Mit der weiteren Entfernung erhöhen sich gleichzeitig die Latenzzeiten der Daten, die zwischen den Rechenzentrum hin und her verschoben werden. Die deutlich höhere Latenzzeit zweier so weit voneinander entfernter Rechenzentren macht insbesondere die Synchrone Replikation von Daten, auf der die Hochverfügbarkeit vieler Systeme aufbaut, effektiv unmöglich.

Wenn die verwendeten Technologien aufgrund geänderter Rahmenbedingungen nicht mehr funktionieren, bedeutet dies für Unternehmen, dass sie vor dem Problem stehen, zukünftig ihre VMs mit minimalem Performanceverlust und geringen RPOs zu schützen. Und zu guter Letzt, kann diese neue Empfehlung komplette DR- und Backupstrategien. die auf der Basis der bisherigen Richtlinien erstellt wurden, auf den Kopf stellen. Ganz gleich in welchem Stadium der Migration in das neuen DR-Rechenzentrum einer Organisation sein mag, die neue Richtlinie hat sehr wahrscheinlich Einfluss auf die DR-Strategien der meisten Unternehmen.

Fazit: Die Stunde von asynchroner Replikation und CDP scheint gekommen
Die meisten Unternehmen werden ihr zweites georedundantes Rechenzentrum wohl in einem Umreis von weniger als 200 Kilometern haben und sind demzufolge unmittelbar von der neuen Empfehlung des BSI betroffen. Somit stehen diese Unternehmen jetzt vor der Wahl, entweder ein drittes, weiter entferntes RZ aufzubauen, oder gleich in die Cloud zu migrieren. Dabei gibt es jedoch einen Haken. Die weitere Entfernung bereitet hinsichtlich Latenz, Bandbreite und der Größe von Snapshots unlösbare Probleme. Unter Berücksichtigung all dieser Faktoren, bleibt nahezu nur eine technische Möglichkeit auf diese weite Entfernung Redundanz zu gewährleisten: Continuous Data Protection, kurz CDP, mit asynchroner Replikation. (Zerto: ra)

eingetragen: 18.02.19
Newsletterlauf: 07.03.19

Zerto: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Den richtigen MSSP auswählen

    Für angemessene IT-Sicherheit zu sorgen, wird immer aufwändiger. Denn einerseits wächst die Bedrohungslage, andererseits werden Security-Lösungen immer komplexer. Hinzu kommt - insbesondere auch bei vielen Mittelständlern - der Fachkräftemangel. Viele Unternehmen entscheiden sich daher, Security-Prozesse an einen spezialisierten Dienstleister auszulagern. Worauf Sie dabei achten sollten und woran Sie einen professionellen Service Provider erkennen, erklärt Ulrich Pfister, Head of Consulting, bei indevis. Eben mal die besten Security-Produkte kaufen und in Betrieb nehmen - so einfach funktioniert IT-Sicherheit leider nicht. Denn die Tools und Lösungen müssen auch richtig zusammenspielen und man muss sie kontinuierlich managen. Das aber erfordert fundiertes Know-how und entsprechende personelle Ressourcen. Beides ist in Zeiten des Fachkräftemangels schwer zu finden. In vielen Unternehmen arbeiten die IT-Abteilungen ohnehin schon am Rande ihrer Kapazitäten.

  • Cloud Security durch SASE

    Forcepoint zeigt auf, wie CISOs ihre Unternehmen heute schon auf die Zukunft von Networking und Security vorbereiten können. Die digitale Transformation stellt die herkömmlichen IT-Sicherheitsarchitekturen der Unternehmen zunehmend vor Probleme. Immer mehr Anwendungen werden in die Cloud verlagert und immer mehr Nutzer greifen darauf remote oder mobil zu - und damit von außerhalb der Firmennetzwerke. Um die klassischen On-Premises-Sicherheitsvorkehrungen durchlaufen zu können, muss der Datenfluss dabei über das zentrale Rechenzentrum umgeleitet werden. Das führt zu schwacher Performance und hohen Latenzen.

  • Die intelligente Generation der IT-Infrastruktur

    Hardware, Software, Infrastrukturen - mit ihnen ist das so eine Sache. Vom Start-up bis zum Enterprise-Konzern: Alle benötigen bestenfalls neueste, hochwertige und leistungsfähige IT, doch bedeuten diese Attribute automatisch einen großen Einsatz finanzieller Mittel. "Gerade Start-ups und noch relativ junge Mittelständler haben oft das Problem, dass sich die Anforderungen an die Infrastrukturen schnell ändern können und dann schon nach kurzer Zeit eine Systemüberlastung entsteht. Oder es wird in teure Systeme investiert, deren Möglichkeiten dann zwar bezahlt, aber nicht gänzlich genutzt werden", weiß Torben Belz, Geschäftsführer der Plutex GmbH aus Bremen. Hosting- oder Colocationmodelle stellen nicht nur kostengünstige Alternativen zu einem Kauf dar, sondern ermöglichen auch Flexibilität und steigern in manchen Fällen sogar die Datensicherheit.

  • Lektion zur Datensicherheit

    Da Schüler, Studenten, Lehrkräfte und Dozenten zunehmend digitale Inhalte, Cloud-Dienste und Online-Anwendungen nutzen, haben Bildungseinrichtungen mit einem exponentiellen Wachstum der von ihnen verarbeiteten Datenmengen zu kämpfen. Um dieser datenintensiven Situation gerecht zu werden, benötigen sie effiziente und zugleich erschwingliche Möglichkeiten, um ihren Speicherbedarf zu erweitern und die Datensicherung und -wiederherstellung zu verbessern. Um angesichts des extremen Budgetdrucks effizienter und kostengünstiger wirtschaften zu können, sucht der Bildungssektor nach neuen Wegen und Möglichkeiten. Inzwischen findet die Cloud dabei zunehmend mehr Beachtung. Die Bildungsbranche hat erkannt, dass die Cloud zusätzliche, leistungsfähige Funktionen bietet - und das äußerst kostengünstig. Denn wer sich auf die Cloud verlässt, muss kein großes IT-Team vorhalten oder gar ein eigenes Rechenzentrum betreiben. Deshalb wünschen sich Bildungseinrichtungen von der Cloud, dass sie so sicher wie möglich ist und dass der jeweilige Cloud-Anbieter die Verantwortung für den Schutz der Daten übernimmt.

  • Cloud Security-Lösungen gegen APTs

    Mit der fortschreitenden Digitalisierung entwickeln sich auch die Geschäftsanforderungen rasant weiter. Dabei ist die schnelle Bereitstellung von Unternehmensanwendungen für die Einführung neuer, verbesserter Geschäftsabläufe zentral. Für viele Unternehmen ist die Auslagerung von Workloads in die Public Cloud dafür das Mittel der Wahl. Hochverfügbarkeit, Skalierbarkeit sowie Kosteneffizienz eröffnen die Möglichkeit, innovative betriebliche Entwicklungen mit geringem Aufwand umzusetzen. Was die Risikoeinschätzung für die dort gespeicherten Daten anbelangt, müssen viele Unternehmen jedoch umdenken.

  • Sicherheitsanforderungen der Kunden umzusetzen

    Einer aktuellen Bitkom-Studie zu Folge arbeitet momentan jeder zweite Arbeitnehmer mehr oder weniger freiwillig von zu Hause. In vielen Unternehmen wurden die situativ erforderlichen, oftmals neuen Arbeitsregelungen allerdings hastig und wenig vorbereitet eingeführt. Selbst dort, wo Homeoffice bislang gewährt wurde, stellt dieser Schritt eine einschneidende Entscheidung dar. Wo bislang nur manche Mitarbeitergruppen an einzelnen Tagen von zu Hause arbeiten konnten, wurden nun beinahe alle Mitarbeiter in die Heimarbeit geschickt. Daher überrascht es wenig, dass sich laut Bitkom fast 40 Prozent der Mitarbeiter nicht ausreichend für eine Arbeit daheim gerüstet sehen. Managed Service Provider können hier ihre Kunden mit flexiblen und dabei sicheren Lösungen unterstützen. Etwa, indem sie die Wartung der IT aus der Ferne übernehmen und so für eine sichere und stabile IT-Infrastruktur für die Arbeit im Homeoffice sorgen: Remote Monitoring und Management, sowie Cloud Security und Backup können dabei helfen, auch in Infrastruktur-belastenden Krisenzeiten produktive und sichere Arbeitsumgebungen bereitzustellen.

  • Gesundheit der Mitarbeiter oberste Priorität

    Die COVID-19-Pandemie hat Unternehmen weltweit dazu gezwungen, bestehende Unternehmensstrukturen und Arbeitsweisen zu hinterfragen und neu zu denken. Aktuell dominieren Spekulationen darüber, wann sich das Arbeitsleben und der tägliche Umgang miteinander wieder normalisieren - doch was wird nach der Krise "normal" sein? Bereits jetzt ist klar, dass es Veränderungen geben wird und neue, flexiblere Arbeitsweisen endgültig starre Routinen ersetzen. Daher müssen sich Unternehmen schon jetzt damit befassen, wie die Arbeitswelt nach COVID-19 aussehen wird und was ihre Mitarbeiter hierfür benötigen werden.

  • Für zuverlässige Endpoint-Security-Maßnahmen

    Eine entscheidende Maßnahme zur Verlangsamung der Ausbreitung von COVID-19 ist "Social Distancing". Deshalb erlassen viele kommunale und staatliche Einrichtungen jetzt verbindliche Anordnungen hinsichtlich der räumlichen Trennung von Personen. Das hat dazu geführt, dass IT-Teams praktisch über Nacht dafür sorgen müssen, dass die Mitarbeiter von Unternehmen aus dem Homeoffice arbeiten können. Da diese Situation weltweit auf Millionen von Menschen gleichzeitig zutrifft, erleben wir gerade das größte Remote-Working-Projekt aller Zeiten. Der Umzug von Mitarbeitern, deren Computern und ihren Daten aus einer sicheren Büroumgebung ins häusliche Umfeld birgt ein enormes Risiko für die Datensicherheit, technische Störungen, versehentliche Fehler oder gar Cyberattacken. Die nachfolgenden Schritte skizzieren, wie Unternehmen dafür sorgen können, dass langfristig ein sicheres Remote Working möglich ist.

  • Ursachen für das Scheitern von Cloud-Migrationen

    Die Digitalisierung führt in Unternehmen zu einem beispiellos hohen Datenaufkommen. SQL Server-Datenbanken aus Microsoft Azure oder Amazon Web Services (AWS) zu betreiben, sehen viele Unternehmen daher als geeigneten Weg an, um angesichts wachsender Datenflut und komplexeren Analyseanforderungen Performanz und Leistung der IT sicherstellen zu können. Die anfängliche Hoffnung, durch den Wechsel in die Cloud kosteneffizienter arbeiten zu können, erfüllt sich für manche allerdings nicht. Eine bedeutende Ursache dafür könnte darin bestehen, dass Datenbestände vorab nicht für die neue Cloud Computing-Umgebung optimiert wurden. Die Migration sollte deshalb erst nach eingehender Vorbereitung vollzogen werden. Bei der Migration in die Cloud verhält es sich ähnlich wie bei einem Wohnungsumzug: Während man Regale ausräumt und seine Besitztümer in Augenschein nimmt, tauchen Gegenstände auf, von denen man sich gar nicht mehr bewusst war, dass man sie besitzt. Die Frage, die sich dabei unweigerlich aufdrängt, ist: Hat der gesamte Hausstand in der neuen Wohnung noch Relevanz? Oder ist der Zeitpunkt gekommen, einige Bestandteile auszusortieren?

  • Umsetzung einer Cloud-Strategie

    Die Sicherung von Innovations- und Wettbewerbsstärke steht üblicherweise in jedem Lastenheft von Unternehmenslenkern. Doch auch die Entwicklung von Strategien zur Aufrechterhaltung des Geschäftsbetriebs in weniger rosigen Zeiten nimmt an Bedeutung zu. Die jüngsten Ereignisse zeigen, dass dies für viele Unternehmen bedeutet, die Digitalisierung mit Nachdruck voranzutreiben und dabei auch die eigene IT-Strategie auf den Prüfstand zu stellen.