- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Die richtigen Migrationsmethoden wählen


Umzugsprofis für Daten: Eine Migration komplexer Datenlandschaften erfordert Expertenwissen
Datenmigrationen im Unternehmensumfeld: Für Außenstehende simpel, für Insider ein Minenfeld


- Anzeigen -





Von Michael Krett, Geschäftsführer dynaMigs

Migrationen sind eine wenig beliebte Aufgabe vieler IT-Abteilungen. Wenn schon nicht alltäglich, so sind Migrationen doch eine regelmäßige Pflichtaufgabe, für die es zahlreiche Gründe gibt. Das Verschieben von Daten wird von der Führungsetage vieler Unternehmen oft nur als eine simple Fleißaufgabe wahrgenommen, bei der Ordner und Dateien per "Copy and Paste" wie im Windows Explorer einfach von A nach B verschoben werden. Man unterschätzt die notwendige Erfahrung, das spezielle Fachwissen und den Bedarf an Tools, um eine Migration erfolgreich umzusetzen. In der Realität wächst der Unternehmens-IT so manches Umzugsprojekt, das zunächst einfach aussah, schnell über den Kopf.

Daten von einer Umgebung in eine andere zu kopieren, ist in den seltensten Fällen einfach und auch deswegen alles andere als beliebt. Ganz im Gegenteil: die immer komplexeren Systeme können Migrationen zu einem Minenfeld machen, insbesondere wenn es darum geht, nicht nur Daten zu verschieben, sondern diese gleichzeitig aus verschiedenen Quellen zu integrieren. Es gilt viele Details zu beachten und selbst nach vermeintlich akribischer Planung geht häufig etwas schief.

Scheitern ist keine Option
Doch Scheitern ist keine Option, denn Daten sind heutzutage die Kronjuwelen der Unternehmen. Der Wunsch aus Sicht der Unternehmensführung ist einfach: Die Daten müssen jederzeit verfügbar sein und die Migration soll im Hintergrund geräuschlos zu möglichst geringen Gesamtkosten stattfinden. Doch in der Realität gehen Migrationen selten problemlos über die Bühne. Und wer mittendrin steckt und auf zahlreiche schwerwiegende Komplikationen stößt, wünscht sich, von Beginn an das richtige Fachwissen an Bord gehabt zu haben.

Herausforderungen können gewaltig sein
Dabei stehen IT-Abteilungen regelmäßig vor gleich mehreren Aufgaben: den Überblick über den Datenbestand zu gewinnen, die richtigen Migrationsmethoden zu wählen, eine gewaltige Datenmenge fehlerfrei von einem Standort zu einem anderen zu bewegen und sie aus unterschiedlichen Speichersystemen mit mehreren Formaten sinnvoll zusammenzuführen.

Die neuen Systeme müssen zudem konfiguriert werden und auch die Migrationstermine müssen mit den Nutzern und Verantwortlichen für Applikationen abgestimmt werden. Was so trivial klingt, ist oft ein Mammutprojekt, das nur durch präzise Analysen, eine exakte Projektplanung und ein effizientes Change-Management funktionieren kann.

Doch in vielen Fällen weiß man zu Projektbeginn nicht genau, welche Daten überhaupt vorhanden sind. Das gilt insbesondere, wenn jahrzehntelang Daten ohne ein planvolles Datenmanagement angehäuft wurden. Oft müssen diese im Zuge einer Migration erst klassifiziert und ein hierarchisches Storage-Management eingeführt werden. Sonst sind die Projekte schwer planbar, ufern immer weiter aus und die Kosten stetig als Folge stetig an. Die Unternehmensführung gibt zwar vor, dass die Migration komplett geräuschlos, mit minimaler Downtime und im Idealfall ohne externe Kosten stattfindet, aber irgendwann wird klar, dass es ohne die notwendige Expertise und konkrete Vorbereitung unmöglich ist, die Datenbewegung zu starten oder erfolgreich umzusetzen.

Physikalische Grenzen der Netzwerke, Rechtemanagement und Umlaute als unerwartete Fallstricke
Auch wird schlichtweg unterschätzt, wie lange es bei großen Beständen physikalisch dauert, Daten von A nach B zu bewegen. Hinzu kommen Eigenheiten der genutzten Speicherplattformen, beispielsweise im Umgang mit Umlauten und Sonderzeichen in Dateinamen und Verzeichnispfaden oder beim Management der Zugriffsrechte.

Es werden geeignete Tools, Methoden und Prozesse benötigt, um auch unter solchen Umständen zweifelsfrei und revisionssicher zu verifizieren, dass alle Daten fehlerfrei auf den Zielsystemen angekommen sind, dass sie ausreichend gesichert sind und dass ein geeignetes Rechtemanagement greift. Out-of-the-Box-Lösungen bieten nur einen beschränkten Umfang an Funktionen, decken darüber hinaus oft nicht alle Eventualitäten ab und lassen sich meist auch nicht auf spezifische Probleme und Sonderfälle anpassen.

Experten für Datenverwaltung- und Migration
Um Migrationsprojekte erfolgreich umzusetzen, bedarf es einer detaillierten Analyse der Storage-Umgebung, der Identifizierung und Klassifizierung der vorhandenen Daten und Protokolle und einer exakten Planung der Migrationsprozesse. Um solche komplexen Projekte von Anfang bis Ende erfolgreich umzusetzen, ist es sinnvoll, spezialisierte Datenexperten für Migrationen und Datenmanagement zu engagieren. Sie sorgen für ein planvolles Vorgehen, haben den vollständigen Werkzeugkoffer für jede Herausforderung bereit und finden Probleme bereits, bevor sie auftauchen. Sie begleiten den kompletten Prozess in einem planvollen Vorgehen und zu vorab vereinbarten Kosten.

Denn egal wie man es dreht und wendet: Nur wer die zu migrierenden Daten und Systeme von Grund auf versteht, wird in der Lage sein, eine komplexe Migration erfolgreich umzusetzen. Ein Experte für diese Fälle muss also gleichzeitig auch ein Daten- und Storage-Experte sein oder diese Expertise in einem Team vereinen. Nur die Kombination aus jahrzehntelanger Projekterfahrung und geeigneten Werkzeugen kann Migrationen in verteilten, komplexen Umgebungen mit automatisierten Prozessen und einer bewährten Methodik in hoher Qualität umsetzen.

Fazit: Komplexe Migrationen besser an Profis übergeben
Daten sind bei den meisten Organisationen zu einer der wertvollsten Ressourcen geworden. Sie effizient, sicher und kostengünstig zu speichern, ist die Grundvoraussetzung für deren sinnvolle Verarbeitung. Rasant wachsende Datenmengen und kontinuierlich ändernde Anforderungen an die IT sorgen für eine ständige Veränderung der Datenlandschaft – Informationen werden deshalb ständig verschoben, konsolidiert oder weiterverarbeitet. Dies macht Migrationen zu komplexen Projekten, die professionelle Analyse, Planung und Umsetzung erfordern. Organisationen und IT-Abteilungen sind gut beraten, zu Beginn Rat bei erfahrenen Datenexperten einzuholen oder diese für das Projekt zu engagieren.

Datenexperten vereinen die Kombination aus jahrzehntelanger Erfahrung und den richtigen Werkzeugen, womit sich bedeutende Teile des Projektes automatisieren lassen. Dadurch sinken die Projektlaufzeit und auch die Gesamtkosten. (dynaMigs: ra)

eingetragen: 25.03.21
Newsletterlauf: 15.06.21

dynaMigs: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Die richtigen Migrationsmethoden wählen

    Migrationen sind eine wenig beliebte Aufgabe vieler IT-Abteilungen. Wenn schon nicht alltäglich, so sind Migrationen doch eine regelmäßige Pflichtaufgabe, für die es zahlreiche Gründe gibt. Das Verschieben von Daten wird von der Führungsetage vieler Unternehmen oft nur als eine simple Fleißaufgabe wahrgenommen, bei der Ordner und Dateien per "Copy and Paste" wie im Windows Explorer einfach von A nach B verschoben werden. Man unterschätzt die notwendige Erfahrung, das spezielle Fachwissen und den Bedarf an Tools, um eine Migration erfolgreich umzusetzen. In der Realität wächst der Unternehmens-IT so manches Umzugsprojekt, das zunächst einfach aussah, schnell über den Kopf.

  • Auf Microservices setzen

    Die unternehmensinterne IT-Infrastruktur gereicht manchmal zum Mysterium: Sehr große Cloud Computing-Systeme, eine wachsende Anzahl an Microservices und zusätzlich bringt Homeoffice dutzende neue Schnittstellen, die es zu sichern gilt. Kurzum: Das alles zeigt, dass es bei Software-as-a-Service (SaaS)-Anbietern ein Umdenken braucht, wie sie ihren Kunden die zuverlässigsten und sichersten Cloud-Infrastrukturen zur Verfügung stellen. Unternehmen müssen daher einen neuen Standard bei sich anlegen, um die Erwartungen ihrer Kunden erfüllen zu können, denn nur zuverlässige Systeme ermöglichen eine erfolgreiche Service-Bereitstellung. Im Umkehrschluss bedeutet das allerdings, dass Entwickler noch mehr leisten.

  • Zwischen Utopie und Realität: Die dynamische Cloud

    Die Auswahl an Produkten, Funktionalitäten und Preisstaffelungen verschiedener Cloud-Plattformen ist vielfältig. Unternehmen können aus den Angeboten von Hyperscalern sowie zahlreicher mittelständischer Anbieter, die über spezifische Cloud-Portfolios inklusive Bare Metal und Dedicated Compute verfügen, wählen. In der Regel nutzen Organisationen mehr oder weniger flexible hybride Cloud Computing-Infrastrukturen, indem sie die Public Clouds der Hyperscaler mit ihrer eigenen Infrastruktur verbinden. Innerhalb einer Hybrid Cloud wünschen sich Kunden vor allem ein hohes Maß an Flexibilität, inklusive der Möglichkeit, einzelne Bestandteile der Cloud-Infrastruktur mühelos auf andere Anbieter übertragen zu können. Eine dynamische Cloud ist im Prinzip eine Multi-Cloud-Umgebung, in der sich Workloads und Daten zwischen den einzelnen Clouds verschieben lassen. Dies kann die jeweils effektivste Mischung und Skalierung ermöglichen, indem freie Instanzen in einem Umfeld von Multi-Cloud-Providern identifiziert und genutzt werden.

  • Datenzentrierte Sicherheit in der Multi-Cloud

    Datenzentrierung ist ein Faktor, der maßgeblich die Cloud- und IT-Security-Strategie in Unternehmen mitbestimmt. Je nach regulatorischen Vorgaben werden diverse Datenprozesse in geeigneter Weise abgesichert. Mit der wachsenden Cloud-Nutzung in den vergangenen Jahren entstehen in Unternehmen auch mehr und mehr Multi-Cloud-Umgebungen. Für diese spricht vor allem der Vorteil hoher Effizienz: Prozesse können zu den jeweils geringsten Kosten zu den am besten geeigneten Anbietern ausgelagert werden. Weitere Nebeneffekte für Unternehmen sind eine höhere Ausfallsicherheit, Skalierbarkeit und Stabilität der IT-Prozesse. Eigenschaften, die vor allem für den Remote-Betrieb in jüngster Vergangenheit überaus gefragt waren.

  • Das Datengedächtnis des Unternehmens sichern

    Sie besitzen sicherlich seit Jahren oder Jahrzehnten eine beachtliche Anzahl an Versicherungen. Doch spätestens bei der Durchsicht der eigenen Unterlagen zum Jahresabschluss beschleicht Sie in Anbetracht der vielen Abschlüsse und deren Kosten der Gedanke, warum Sie eigentlich diese Versicherungen Jahr für Jahr bezahlen, ohne sie ein einziges Mal in Anspruch genommen zu haben. Sie fackeln nicht lange und kündigen einige davon, unter anderem die Hausratversicherung. Doch kurz darauf ruiniert eine Rohrverstopfung mit Folgewasserschaden die Elektrik Ihrer sündhaft teuren Heimkinoanlage, den Edelteppich und die eben erst neu beschaffte Wohnzimmereinrichtung gleich mit dazu. Für den Schaden will niemand haften. Sie bleiben darauf und auf den hohen Folgekosten sitzen. Übertragen auf die Unternehmenspraxis wird sofort klar, warum eine klare Backup- und Recovery-Strategie zusammen mit einer zuverlässigen Backup-Lösung großen Ärger, lange Betriebsausfälle und hohe Umsatzverluste ersparen kann. Daher sollen im Folgenden drei Aspekte der Notwendigkeit einer funktionierenden Datensicherung und Datenwiederherstellung beleuchtet werden.

  • Kompromittierungsversuche von Cybersicherheit

    Cloud-Sicherheit war bis vor nicht allzu langer Zeit für die meisten Unternehmen zweitrangig. Das hat sich längst geändert, denn auf der Suche nach dem nächsten Ziel machen Cyberkriminelle sich bevorzugt Schwachstellen und Sicherheitslücken bei Cloud Computing-Diensten zunutze. Unternehmen können mit virtuellen privaten Netzwerken und Antivirensystemen zwar eine Menge tun, um Systeme sicherer zu machen. Einer der kritischsten und gerne übersehenen Aspekte ist allerdings nicht computerbezogen. Tatsächlich gehen 95 Prozent der Cyber-Sicherheitsverletzungen auf menschliches Versagen zurück. Dazu kommt, dass sich die meisten Cyberangriffe, auf kleinere Unternehmen konzentrieren, die sich im Gegensatz zu Großunternehmen keine teuren Sicherheitsteams leisten können. Für diese Firmen ist es nicht ganz leicht eventuelle Schwachstellen aufzufinden. Hier konzentrieren wir uns auf die Top 3 der Sicherheitsbedrohungen und was man dagegen tun kann.

  • SD-WAN bringt Stabilität ins Unternehmensnetzwerk

    Geringere Betriebskosten, effiziente Bandbreitennutzung, verbesserte User-Experience - Marktforscher attestieren dem Software-Defined Wide Area Network (SD-WAN) eine goldene Zukunft im Unternehmens-Backbone. Tatsächlich aber steht und fällt der Erfolg von SD-WAN mitdem Management von Netzwerkdiensten wie DNS, DHCP und IP-Adressverwaltung (DDI) in der Cloud. SD-WAN steht bei Netzwerkadministratoren derzeit hoch im Kurs.Gefragt sind entsprechende Technologien vor allem im Zusammenhang mit Migrationen in die Multi- beziehungsweise Hybrid-Cloud oder der Umsetzung von Software-as-a-Service (SaaS)-Strategien. Der Grund: Ein Umstieg in die Welt der dezentralen Datenverarbeitung bringt klassische Netzwerkinfrastrukturen - und deren Nutzer - rasch an die Belastungsgrenze. Hier wirken sich technische Herausforderungen wie hohe Latenzen oder Bandbreitenengpässe, etwa beim Einsatz ressourcenhungriger Anwendungspakete wie Microsoft Office 365, besonders negativ aus. Hinzu kommt, dass mit der IT aus der Wolke Netzwerk- und Security-Architekturen mehr und mehr zusammenwachsen. Anders ausgedrückt: Mit Cloud-First-Strategien wird die Administration traditioneller Netzwerke schnell zur Sisyphusarbeit.

  • DevOps werden zunehmend datengetrieben

    DevOps haben sich in der Software-Entwicklung in den vergangenen Jahren immer weiter durchgesetzt. Die effizientere und effektivere Zusammenarbeit von Entwicklung und IT-Betrieb bringt allen Beteiligten zahlreiche Vorteile: So steigt nicht nur die Qualität der Software, sondern auch die Geschwindigkeit, mit der neue Lösungen entwickelt und ausgeliefert werden. In 2019 haben wir gesehen, dass Automatisierung, künstliche Intelligenz und AIOps immer häufiger eingesetzt und von der DevOps-Gemeinschaft erforscht werden. Container und Functions as a Service nahmen weiter zu, so dass Entwickler und Betriebsteams ihre Anwendungen und Infrastruktur besser kontrollieren konnten, ohne die Geschwindigkeit zu beeinträchtigen. Doch wohin geht die Reise jetzt?

  • Cloud Computing-Daten schützen

    Mit wachsenden digitalen Geschäftsanforderungen investieren Unternehmen massiv in die Erweiterung ihrer Netzwerkverbindungsfähigkeiten, um sicherzustellen, dass ihre Daten den richtigen Personen zur richtigen Zeit zur Verfügung stehen. Insbesondere für Cloud-basierte, hochgradig vernetzte und agile Geschäftsmodelle ist die Gewährleistung eines ordnungsgemäßen Zugriffs auf Daten und Systeme unerlässlich. Zusammen mit der Konnektivität in immer komplexeren Infrastrukturen wachsen auch die Anforderungen an Netzwerk- und Datensicherheit. Wenn nicht die richtigen Schutzvorkehrungen getroffen werden, können Bedrohungen, die von Datenlecks und Fehlkonfigurationen bis hin zu Risiken durch Insider reichen, in jedem komplexen Cloud- und Netzwerkökosystem ihr Schadenspotenzial entfalten.

  • Durchsetzung von Cloud-Sicherheitsrichtlinien

    Cloud Computing-Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt. Denn in der Cloud gespeicherte Daten liegen außerhalb der Reichweite vieler lokaler Sicherheitsvorkehrungen. Unternehmen müssen deshalb zusätzliche Maßnahmen ergreifen, um ihre Daten in der Cloud, über den teils rudimentären Schutz der Anbieter hinaus, gegen Cyberangriffe und Datenlecks abzusichern. Allgemein sind Public-Cloud-Provider für die physische Sicherheit, globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren zuständig. Dies ermöglicht Unternehmen eine flexible Skalierbarkeit und entlastet sie davon, eine eigene Infrastruktur wie ein Rechenzentrum oder Server-Hardware bereitzustellen. Zugleich liegt es in der Verantwortung der Unternehmen, all ihre in die Cloud migrierten Daten und Anwendung selbst auf gewünschte Weise zu schützen.