Sie sind hier: Startseite » Markt » Tipps und Hinweise

Die zehn häufigsten Probleme bei Datenmigrationen


Wo die größten Fallstricke beim Portieren von Daten lauern - und wie man sie vermeiden kann
Datenmanagement ist keine Voraussetzung für die Portierung von Daten. Wer aber keinen Überblick über seine Daten hat, hat es schwer, diese planvoll, korrekt und schnell zu migrieren


Von Ralf Draeger, dynaMigs

Datenmigrationen sind komplex und erfordern ein hohes Maß an Expertenwissen, damit sie ohne Probleme über die Bühne gehen. Organisationen, die potenzielle Problemfelder schon vor der Migration erkennen und entsprechend vorausplanen, sparen bei ihren Migrationsprojekten Zeit und Geld. Hier eine Liste aus der Praxis mit den zehn häufigsten Problemen bei Datenmigrationen – und wie man sie lösen kann.

1. Mangelhaftes Datenmanagement
Eines vorweggenommen: Datenmanagement ist keine Voraussetzung für die Portierung von Daten. Wer aber keinen Überblick über seine Daten hat, hat es schwer, diese planvoll, korrekt und schnell zu migrieren. Betreiben Unternehmen kein konsequentes Datenmanagement, sind die Bestände schnell unstrukturiert auf verschiedenen Systemen verteilt – und damit an sich Grund für eine Datenmigration. Denn oft liegen dann kalte Daten auf teuren Medien, unternehmenskritische Informationen dagegen auf nicht ausreichend gesichertem Speicher.

Das kann im schlimmsten Fall zum Produktionsausfall führen, weil wichtige Informationen nicht mehr verfügbar sind. Mangelhaft verwaltete Daten sind zudem teuer, weil die Verantwortlichen laufend unkoordiniert Speicher erweitern und teure Medien auf Vorrat kaufen, die nicht unbedingt nötig sind. Außerdem kann eine Migration gewachsener Datenbestände viel Zeit und Geld verbrauchen. Ein Aufräumen der Datenstruktur im Vorfeld empfiehlt sich – nicht zuletzt, um sich vielleicht von Altlasten zu befreien und Speicherkosten zu optimieren.

Lösung: Eine Migration ohne professionelles Datenmanagement geht natürlich auch – aber mit ist es oft schneller, sicherer und besser.

2. Tasks manuell abarbeiten
Die Datenberge einer Organisation von Hand zu migrieren, kostet viel Zeit und Ressourcen. Insbesondere wenn im Lauf der Zeit innerhalb von Jahrzehnten angehäufte Daten zu verarbeiten sind, wird die manuelle Migration im Prinzip bereits unmöglich. Zu viele Mitarbeiter wären dafür nötig und zeitaufwändig einzuarbeiten. Ganz entscheidend: Die manuelle Datenmigration ist bei solchen Mengen sehr fehleranfällig.

Lösung: Sich wiederholende Teile der Migration mit fortschrittlichen Migrations-Tools automatisieren. Prozessautomatisierung spart einerseits Zeit und Geld. Andererseits erhöht es die Qualität und damit die Datensicherheit.

3. Umlautproblematik
Im Mainframe war die Menge an Zeichen mit ASCII noch auf 127 begrenzt und kannte keine Umlaute. UTF-8 / Unicode (Windows NT 4.0 und höher/Unix/NAS) stellt Zeichen mit einem, zwei oder drei Bytes dar, was mehr als eine Million Zeichen ermöglicht. Bei unterschiedlichen Netzwerkprotokollen, insbesondere beim Wechsel auf NFSv4, können Sonderzeichen oder Umlaute in Dateinamen bei Datenmigrationen Probleme bereiten. Denn jedes dieser Zeichen kann in unterschiedlichen Zeichenfolgen auf dem NAS abgelegt sein, je nach Konfiguration des Clients. Ein "ä" findet sich unter Umständen im Filesystem der NAS als "e4", "c3 a4" oder "c3 83 c2 a4", wird aber je nach Konfiguration des Clients womöglich auch als Element aus der Liste "δфلהไ…" interpretiert. Dieses Problem betrifft rund 400 Sonderzeichen aus unterschiedlichen Sprachen und Sprachvarianten. Mit einem neuen falschen Namen lassen sich die Dateien nach der Migration nicht mehr ohne Weiteres finden.

Lösung: Das Wissen, dass Umlaute oder andere Zeichen Probleme bereiten können, ist der erste Schritt. Nur jahrelang erfahrene Experten können solche Probleme und deren Effekte antizipieren und schon vor der Migration entschärfen.

4. Kein einheitliches User-Mapping bei Multiprotokoll-Umgebungen
Unternehmen, die aus historischen Gründen unterschiedliche Protokolle auf ein und demselben Speicher verwenden, etwa NFS unter Linux oder CIFS unter Windows, haben oft kein einheitliches User-Mapping. Das kann bei der Migration Probleme bereiten, wenn beispielsweise Windows-Nutzer im Active Directory stehen, die Linux-Anwender jedoch nur lokal angelegt sind. So weiß das Storage-System nach einer Datenmigration nicht mehr, welchem Nutzer es welche Zugriffsrechte geben soll.

Lösung: Vor der Migration mappen die Verantwortlichen alle User unternehmensweit, z.B. via LDAP. Dies sorgt dafür, daß die Storagesysteme die User in beiden Welten korrekt erkennen und die entsprechenden Rechte ziehen.

5. Kopierfehler durch Verifikation erkennen und vermeiden
Wer Daten migriert, will die Sicherheit haben, dass diese korrekt am Ziel ankommen. Das Caching-Verhalten und Fehler im IP-Stack des Copyhost-Betriebssystems, falsches Codieren von Umlauten oder nicht korrekt dargestellte Verzeichnisse können ein falsches Überspielen der Daten in den beteiligten Speichersysteme verursachen. Die Logfiles der Migration, auf die viele Verantwortliche für die Verifikation zurückgreifen, können die korrekte Migration nicht hinreichend bestätigen, da sie etwaige Schwächen von Kopiertools außer Acht lassen.

Lösung: Moderne Verifikations-Tools, wie etwa der Stormax von dynaMigs, scannen Daten, Dateien und Ordner samt Metadaten an Quelle und Ziel und gleichen diese ohne weitere Downtime ab. So kann man Fehler finden und aufzeigen, im welchen Teilschritt der Migrationskette sie passierten.

6. Distributed File Systems (DFS) und nicht erkannter Reparse-Point
Speicherarrays unterschiedlicher Anbieter legen DFS-Links oder Widelinks unterschiedlich an. Dies kann dazu führen, dass das Kopiertool den DFS-Link nicht mehr als Reparse-Point erkennt. Mit unter Umständen überraschenden Folgen: Denn das Kopiertool merkt dann nicht, dass der Link den zu kopierenden Speicherbereich verlässt. Die Folge kann sein, dass ungewollt Daten kopiert oder sogar irrtümlich gelöscht werden.

Lösung: Um dieses Problem zu umschiffen, muss man wissen, dass es das Problem potenziell gibt – und man benötigt die nötige Erfahrung des Verhaltens verschiedener Speicherarrays und Kopiertools.

7. Wechsel des Speichersystems
Die Probleme bei Storage-Migrationen wachsen, wenn eine IT-Administration nicht nur auf ein neues Array, sondern auf ein komplett neues System migrieren will oder muss - beispielsweise anlässlich eines Anbieterwechsels oder bei Vertragsende. Das neue System ist dann so einzustellen, dass es sich genauso verhält, wie das alte. Ansonsten bindet es sich nicht in die IT-Gesamtinfrastruktur ein und bleibt ein Fremdkörper. Abläufe zum Verarbeiten der Daten – und damit Geschäftsabläufe –werden folglich unterbrochen.

Lösung: Die Migrationsverantwortlichen konfigurieren die Zielsysteme vor der Migration grundlegend und sorgfältig. Sie berücksichtigen dabei vor allem das Zusammenspiel mit der gegebenen IT.

8. Kein Blick für Bandbreite
Die immer größeren Datenmengen bringen Netzwerke unter Umständen an ihre Leistungsgrenze. Ein Datentransport über WAN kann lange dauern und zu Abbrüchen der Migration und Datenverlust führen. So manche Speichersysteme sind bereits heute zu groß geworden, um sie in einem sinnvollen Zeitrahmen über weite Strecken zu transportieren. Stichwort: Data-Gravity.

Lösung: Das lokale Kopieren der Dateien vermeidet diese Probleme. Es macht vieles einfacher und schneller.

9. Offline-Cache
Offline-Caches sind unter CIFS ein Problem. In diesen Zwischenspeichern halten Clients Dateien vor, die offline geändert werden können und daher später mit dem Server zu synchronisieren sind. Nach der zwischenzeitlichen Migration kann der Client diese nicht mehr synchronisieren, falls das Ziel einen neuen Namen trägt. Dann verwirft der Client diese nach einiger Zeit gänzlich. Die Daten gehen also verloren.

Lösung: Hier hilft nur die Analyse, ob ein Client den Offline-Cache serverseitig unterstützt sowie ein entsprechender Recall vor der Migration.

10. Übernahme von IP-Adresse und Servernamen
Will man Servernamen und IP-Adresse bei einer Datenmigration übernehmen, kann das die Address-Resolution-Protocol (ARP) - Caches der Clients verwirren. Dann sind falsche Ziel- oder Ursprungsadressen hinterlegt. Im schlimmsten Fall ist ein Reboot des Clients nötig: Bei Windows wegen korrumpierter ARP-Zwischenspeicher, bei Unix etwa wegen eines veralteten Mounting-Punkts (Stale Mount).

Lösung: Stellt man auf neue Namen / IPs um, dann ergibt sich das Problem nicht, allerdings müssen dann auf allen Clients Änderungen vorgenommen werden.
Bei Übernahme sollte man alle beteiligten Versionen der Windows Clients im Vorfeld in einer Testmigration auf ihr Verhalten prüfen. Anfällige Versionen werden dann am besten während der Migration heruntergefahren. Bei Unix-Derivaten ist ein Umount der betroffenen Exports zwingend, hierfür sollte man neben den fstabs oder gegebenenfalls auch die Auto-Mounter-Konfigurationen prüfen.

Migrationsprobleme idealerweise lösen, bevor sie aufkommen
Die Liste möglicher Probleme bei Migrationen ist lang. Zahlreiche Fallstricke sorgen dafür, dass die meisten Migrationsprojekte früher oder später ins Stocken geraten. Dabei sind die Unternehmen im Vorteil, die bereits ein professionelles Datenmanagement aufgebaut haben. Wer noch kein Datenmanagement umgesetzt hat, oder wem Manpower, Tools, Know-how und Expertise fehlen, holt sich besser frühzeitig Rat bei externen Spezialisten für Datenmanagement und Datenmigrationen. Sowohl bei der Planung als auch bei der Umsetzung. Insbesondere durch die Prozessautomatisierung spart dies am Ende Nerven, Zeit und Geld.

Der Autor
Ralf Draeger ist einer der vier Gründer von dynaMigs.net und seit 1988 in der IT-Branche tätig.
Als technischer Leiter ist er für das Solution-Design und die Administration großer NAS-, SAN- und Cloud-Umgebungen verantwortlich. Vor dynaMigs war er sieben Jahre im Bereich der Programmierung tätig, fünf weitere als Systemadministrator (Unix/Windows) und 20 Jahre im Consulting und der Implementation im NAS-Umfeld. Dabei war er hauptsächlich verantwortlich für EMC Celerra und VNX. Im Verlauf seiner Karriere war Draeger als Senior NAS-Solution-Architect und Implementation-Specialist für namenhafte Automobilhersteller, Banken, Versicherungen, IT-Dienstleister und öffentliche Institutionen zuständig.

(dynaMigs: ra)

eingetragen: 19.05.21
Newsletterlauf: 30.08.21

dynaMigs: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Private AI verfolgt einen Plattform-Ansatz

    Der Einzug der generativen KI (GenAI) in die breite Öffentlichkeit hat das KI-Wachstum in Unternehmen vergangenes Jahr beschleunigt. Motiviert durch Wettbewerbsdruck und potenzielle Vorteile forcieren Unternehmen und Regierungen ihre KI-Strategie.

  • Mangelnde Vorbereitung auf SaaS-Ausfälle

    Der Hycu State of SaaS Resilience 2024 Report deckte zuletzt kritische Datensicherungslücken auf, da 70 Prozent der Unternehmen Datenverluste erleiden. Trotzdem verlassen sich 60 Prozent immer noch auf ihre Software-as-a-Service (SaaS)-Anbieter, um sich zu schützen, und setzen sich damit weiteren Risiken aus.

  • KI gewinnbringend einsetzen

    Das KI-Potenzial ist praktisch unerschöpflich. Doch um es richtig zu nutzen und daraus echte Wettbewerbsvorteile zu generieren, muss vorab die Bereitschaft des Unternehmens dafür geklärt werden. Der IT-Dienstleister CGI erklärt, warum der Readiness-Check so wichtig ist, was er genau analysiert und was mit den daraus gewonnenen Erkenntnissen passiert.

  • Herausforderungen von Edge AI

    Künstliche Intelligenz hat längst den Netzwerkrand erreicht. Um zeitkritischen Daten den Umweg über die Cloud und das Rechenzentrum zu ersparen, bringen Edge-AI-Lösungen Modelle direkt in die Anwendungen vor Ort. Dieser Weg bietet immense Vorteile - er ist aber auch mit einigen Stolpersteinen gepflastert, wie Couchbase, Anbieter einer Cloud-Datenbankplattform, zeigt.

  • Cloud-Datenschutz im Gesundheitswesen

    Daten im Gesundheitswesen gehören zu den kritischsten Vermögenswerten. Sie umfassen hochsensible Informationen wie Krankengeschichten, Behandlungsunterlagen und persönliche Daten. Der Schutz dieser Daten ist von größter Bedeutung, da sie durch nationale und globale Vorschriften als besondere Kategorien personenbezogener Daten eingestuft werden.

  • Generative KI mit Serverless optimieren

    Der Einsatz von generativer KI kann komplex und teuer sein. Serverlose Cloud-Dienste und Vektordatenbanken bieten eine Lösung, um diese Hürden zu überwinden und KI-Anwendungen effizient und skalierbar zu gestalten.

  • Sensible Daten in der Cloud schützen

    Wenn Unternehmen in der Cloud geistiges Eigentum oder persönliche Informationen verlieren, drohen ihnen erhebliche Konsequenzen. Mit den richtigen Maßnahmen für Datensicherheit in der Cloud können sie zuverlässig Vorsorge treffen. Forcepoint erläutert die fünf wichtigsten davon. Datensicherheit in der Cloud wird für Unternehmen zunehmend zu einem kritischen Bestandteil ihrer IT-Infrastruktur.

  • Dank der Cloud: Flexibilität und Skalierbarkeit

    Cloud-Marktplätze sind heute zu einem unverzichtbaren Dreh- und Angelpunkt für unabhängige Softwareanbieter (ISVs) geworden, um ihre Reichweite zu vergrößern, den Verkaufsprozess zu rationalisieren und Wachstum zu fördern. Erfolg ist jedoch nicht allein dadurch garantiert, dass ein Produkt auf einem Marktplatz gelistet ist.

  • Beste Rendite für Serverinvestitionen?

    Laut Statista schätzen IT-Experten weltweit im Jahr 2024 eine Aufteilung von fast 50/50 zwischen Onsite- und Cloud-gehosteten Servern in ihren Unternehmen. Aufgrund der riesigen Datenmengen und der zunehmenden Nutzung von KI, werden künftig immer mehr Server benötigt.

  • Digitale Transformation kommt nicht ins Rollen?

    Dass die Digitalisierung unaufhaltsam voranschreitet, ist keine Neuigkeit mehr, trotzdem haben bislang viele deutsche Unternehmen den entscheidenden Schritt zur digitalen Transformation noch nicht gewagt. Die Corona-Pandemie hat als Katalysator für einen Digitalisierungsschub gesorgt und viele Prozesse auf den Prüfstand gestellt.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen