Sie sind hier: Startseite » Markt » Hintergrund

Cloud-Migration bis zu 50 Prozent schneller


DataOps und die Entwicklung digitaler Angebote: Mit virtuellen Datenumgebungen ist der Erfolg vorprogrammiert
Fünf Gründe, warum die DataOps-Technologie die Software-Entwicklung heute und künftig beschleunigt


Von Minas Botzoglou, Regional Director DACH bei Delphix

Das zügige Umsetzen von innovativen Ideen in digitale Angebote ist erfolgsentscheidend. Dies setzt allerdings voraus, dass Software-Entwicklern und -Testern Daten in der erforderlichen Güte und Schnelligkeit bereitstehen. Zudem gilt es, die Informationsbestände abzusichern und parallel eine Maskierung sensibler Daten durchzuführen. Dieses Anforderungsprofil erfüllt die DataOps-Technologie, die Datenbanken, Applikationen und Dateisysteme auf einfache Weise virtualisiert. Minas Botzoglou, Regional Director DACH bei Delphix, nennt die fünf wichtigsten Gründe, weshalb DataOps bereits heute unverzichtbar für jedes Unternehmen ist, das sich ernsthaft mit der Digitalisierung auseinandersetzt.

1. Überzeugende Datenqualität
DataOps-Lösungen erzeugen "Data Pods". Das sind virtuelle Datenumgebungen, die auf Produktivdaten basieren und Software-Entwicklung unter "realen" Bedingungen ermöglichen. In der Praxis kommen jedoch häufig synthetische Daten zum Einsatz, weil es für Unternehmen zu kompliziert, zu risikoreich, zu teuer und zu zeitaufwändig ist, zig Terabyte Daten von einem Produktivsystem zu kopieren und in eine Entwicklungsumgebung oder auf ein Testsystem zu transferieren. Künstliche Datensätze haben allerdings ein wesentliches Manko: Eine Entwicklung ohne reelle Datenbasis wirkt sich negativ auf die Präzision und die Qualität neuer Applikationen aus. DataOps hingegen automatisiert die Datenaktualisierung aus der Produktion, sodass Tests mit realen und zuverlässigen Daten erfolgen.

2. Beachtliches Bereitstellungstempo
Mithilfe einer DataOps-Plattform lassen sich für Entwickler, Testfachleute und Big Data-Spezialisten innerhalb von Minuten Data Pods auf Basis der Produktivdaten bereitstellen. Ein aufwändiges Hochfahren von voluminösen Test- und Entwicklungsumgebungen ist nicht erforderlich. Beim Verwenden von physischen Datenkopien dauert es mehrere Stunden oder gar Tage bis große Datenbestände zur Verfügung stehen. So gaben die Befragten einer Delphix-Studie an, dass es im Schnitt dreieinhalb Tage dauert, bis eine Test-Umgebung zur Verfügung steht.(1)

3. Multiple virtuelle Datenumgebungen auf einen Klick
DataOps-Technologien sind fähig, Datenbanken und Anwendungen sofort zu installieren oder wiederherzustellen – ungeachtet der Größe des Datensatzes. Nutzer von DataOps-Plattformen haben damit die Option, so viele Kopien der Datenbestände wie nötig zu erstellen und für spezielle Analysen zu verwenden. Das ist beispielsweise für das Aufspüren von Bugs, bei Auswertungen und für Tests sinnvoll. Zudem lassen sich separate Ausgaben für unterschiedliche Versionen einer Applikation einrichten. Ein Entwickler kann bei Bedarf Data Pods zeitweise stilllegen und wieder aktivieren oder auch zwischen verschiedenen Data Pods hin und her wechseln.

4. Integrierter Datenschutz durch Datenmaskierung
Die EU-Datenschutzgrundverordnung (DSGVO), die für alle Unternehmen ab 25. Mai 2018 verbindlich ist, schränkt das Verwenden personenbezogener Daten ein. Denn die DGVO fordert vom datenverarbeitenden Unternehmen, die personenbezogenen Angaben nachweislich zu anonymisieren oder pseudonymisieren. Das ist vor allem in der Software-Entwicklung kritisch, da oft eine Vielzahl von Daten ungeschützt auf unterschiedlichen Entwicklungs- und Testumgebungen abliegt.

Auch wenn externe Entwickler Zugriff auf Unternehmensdaten benötigen, wird dies zur Herausforderung. Das "Maskieren" personenbezogener Informationen ist eine sichere Möglichkeit, um Daten irreversibel zu anonymisieren. Dadurch lassen sich keine Rückschlüsse auf die Identität von Personen schließen. Gleichzeitig werden die sensitiven Daten mit fiktiven, aber realistischen Beständen ersetzt, welche das Entwickeln unter realen Bedingungen gewährleistet. Eine ausgereifte DataOps-Lösung verfügt dabei über Instrumente oder Schnittstellen zu Tools und Skripten von Drittanbietern, um eine gesetzeskonforme Datenmaskierung zu automatisieren.

5. Niedriger Speicherplatzbedarf, höhere Effizienz
Jede virtuelle Datenkopie benötigt nur einen Bruchteil des Speicherplatzes der physischen Version. Aus 10 TByte Produktivdaten wird beispielsweise ein Data Pod von nur 10 GByte. Dadurch verschlanken sich Entwicklungs- und Testumgebungen oft bis auf ein Drittel. Entwickler arbeiten zudem produktiver, weil sie nicht mehr bis zu 50 Prozent ihrer Arbeitszeit mit Verwaltungsprozessen verschwenden. Der Nutzer kontrolliert seine Data Pods effizienter über eine Self-Service-Funktion. Zudem stehen Entwicklern DevOps-Werkzeuge zur Verfügung, mit denen sich ihre Aufgaben und Prozesse automatisieren lassen. Dank Datenvirtualisierung- und Deduplizierungstechnik beschleunigt eine DataOps-Plattform auch die Datenübertragung, wodurch eine Cloud-Migration bis zu 50 Prozent schneller abläuft.

DataOps - so funktioniert's
Eine DataOps-Lösung lässt sich auf allen gängigen Hypervisors installieren. Standardschnittstellen binden Datenbanken wie Oracle, SQL Server, DB2, mySQL oder Sybase, aber auch Applikationen als Datenquellen ein. Von diesen Daten und Applikationen wird eine komprimierte Kopie erstellt, die ständig inkrementell mit der Datenbasis synchronisiert wird. Es werden also nur die Änderungen an den Datenquellen selbst in die Datenkopie übertragen.

Die komprimierten Kopien, auch "Data Pods" genannt, lassen sich in beliebiger Menge erstellen und können so für Entwickler, Tester oder Datenanalysten bereitgestellt werden. Individuelle Self-Service-Zugänge ermöglichen es Administratoren Zugriffsrechte festzulegen und die entsprechend benötigten Datensätze freizugeben. Somit lässt sich die nötige Kontrolle durch Daten-Administratoren mit der schnellen Bereitstellung von Daten für agiles Entwickeln und Testing in Einklang bringen. DataOps-Plattformen lassen sich sowohl in Unternehmensrechenzentren, in Public oder auch Hybrid-Clouds betreiben. (Delphix: ra)

eingetragen: 04.03.18
Newsletterlauf: 13.04.18

Delphix: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Anwendungsfälle für KI

    Unternehmen erleben heute mit der Künstlichen Intelligenz (KI) einen Déjà-vu-Moment. Ähnlich wie bei früheren Technologiesprüngen - dem Aufkommen des PCs, des Internets oder der Cloud-Technologie - stehen sie an einem Wendepunkt, an dem die breite Einführung von KI die Unternehmenslandschaft transformiert.

  • Vom Kreditinstitut zur Technologie-Oase

    Wir schreiben das Jahr 2035: Sie wachen auf und überprüfen Ihre Finanzen über einen sprachaktivierten digitalen Assistenten, der als Hologramm von Elvis erscheint. Nach der Authentifizierung durch Stimm- und Fingerabdruck-Biometrie liefert Ihnen der verstorbene King of Rock'n'Roll einen Überblick über Ihre Ausgaben, Ersparnisse und Investitionen in einem personalisierten Dashboard, das alle Ihre Konten und Finanzdaten an einem Ort zusammenfasst.

  • Cloud-Drucklösungen spielen eine große Rolle

    Heutzutage lässt sich technischer Fortschritt kaum mehr mit dem bloßen Auge erkennen. Selten vergeht ein Tag ohne eine weitere Innovation, die für mehr Effizienz sorgt. Diese Entwicklung macht auch vor Druckern nicht Halt. Cloud-Lösungen ermöglichen zentrale Administration und Kosteneinsparungen bei lokalen Servern. Doch in diesem Zusammenhang geht die Tendenz eher in Richtung langsamer Wechsel in die Wolke. Warum ist das so? "In vielen Unternehmen - insbesondere aus Branchen, in denen sensible Daten auf der Tagesordnung stehen - herrschen Sicherheits- und Datenschutzbedenken.

  • Finanzbranche steht vor einem Wendepunkt

    Immer mehr traditionelle Banken erkennen endlich die Vorteile des Outsourcings, um ihren Weg zur Digitalisierung zu beschleunigen und so ihre Effizienz und Kundenzufriedenheit zu optimieren. In Deutschland bremsen jedoch regulatorische Anforderungen das Tempo der Transformation. Karl im Brahm, CEO von Objectway DACH, betont, dass Banken diese Hürden nur durch Kooperationen mit Fintechs überwinden können.

  • CPUs und DSAs für Cloud- und KI-Erfolg

    Die Chimäre ist in der griechischen Mythologie eine Kreuzung aus Löwe, Ziege und Schlange. Sie hat den Kopf des Löwen, den Körper der Ziege mit einem weiteren Ziegenkopf auf dem Rücken und den Schwanz der Schlange

  • Vertrauen gegenüber Generative AI schwindet

    Im letzten Jahr zeigten sich deutsche Unternehmen wenig beeindruckt von den Sicherheitsrisiken von ChatGPT und Co. Sie vertrauten den vielversprechenden Generative-AI-Anwendungen und ihren Vorteilen bedingungslos. Nun legen die Ergebnisse einer aktuellen Gigamon-Studie* jedoch nahe, dass die Skepsis gegenüber diesen Tools in den vergangenen zwölf Monaten zugenommen hat.

  • Bedeutung der Cyber-Sicherheit

    Wie in jedem Jahr, so hat auch in diesem die Firma IBM zusammen mit dem Ponemon Institute die Studie Cost of a Data Breach 2024 veröffentlicht. Die Ergebnisse sprechen Bände: Mit 4,88 Millionen US-Dollar (rund 4,50 Millionen Euro) je Sicherheitsverletzung im weltweiten Durchschnitt liegen diese Kosten 10 Prozent über dem Jahr 2023 mit 4,5 Millionen US-Dollar (rund 4,16 Millionen Euro) und erreichen ein Rekord-Hoch.

  • Sicherheit in der Cloud

    Der Cloud Computing-Markt wächst beständig weiter und ein Ende dieses Aufwärtstrends scheint nicht in Sicht zu sein. Laut Prognosen könnte er bis 2032 die Marke von gut 2,29 Milliarden US-Dollar knacken. Das würde einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 16,5 Prozent entsprechen.

  • Demokratisierung der Künstlichen Intelligenz

    Open Source basiert auf Zusammenarbeit und Transparenz. Dank dieser beiden unbestreitbaren Vorteile haben Open-Source-Lösungen das Potenzial, die Art und Weise zu revolutionieren, wie KI-Systeme entwickelt und eingesetzt werden. Ein offener Ansatz für Künstliche Intelligenz ist unerlässlich.

  • Wie KI den Customer Service revolutioniert

    Die IT-Branche ist ein Umfeld des ständigen Wettbewerbs. CIOs treiben heute die digitale Transformation voran und investieren in digitale Technologien, um die Effizienz und Rendite ihres Unternehmens zu maximieren. Da sie dafür nur wenig Zeit und Ressourcen für IT-Services aufwenden möchten, wenden sie sich immer mehr der generativen KI zu.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen