Sie sind hier: Startseite » Markt » Tipps und Hinweise

Sämtliche Datenelemente dokumentieren


Keine Zukunft ohne Daten: Warum Unternehmen jetzt auf Datenvirtualisierung setzen müssen
Dank moderner Technologie ist Datenvirtualisierung nicht nur leistungsfähiger als die klassische Datenintegration, sondern auch agiler und wirtschaftlicher


Die aktuelle biMa-Studie der Sopra Steria Consulting liefert alarmierende Ergebnisse: Nahezu die Hälfte aller Unternehmen (49 Prozent) gibt an, dass ihre Daten für Analysen unvollständig, veraltet oder widersprüchlich sind. Neben der mangelhaften Datenqualität ist laut der Studie auch die fehlende Integration von Daten aus unterschiedlichsten Datenquellen eine Hürde. Unternehmen drohen aufgrund der Widrigkeiten im globalen Wettbewerb den Anschluss zu verlieren. Ohne Datenvirtualisierung ist es kaum möglich, fatale Entwicklungen dieser Art abzuwenden.

Leistungsfähige Abstraktionsschicht vereinfacht Datenzugriff signifikant
Die voranschreitende Digitalisierung hat zu einem enormen Wachstum der weltweit verfügbaren Daten geführt. Während datengetriebene Innovationen in zahlreichen Industrieländern rasant voranschreiten, kämpfen Unternehmen im deutschsprachigen Raum nach wie vor mit unzureichenden technischen und organisatorischen Voraussetzungen. Traditionelle Ansätze wie ETL (Extract-Transform-Load), bei denen Daten für Analysen zunächst gespeichert und transformiert werden müssen, reichen nicht mehr aus, um Schritt zu halten.

Datenvirtualisierung geht einen anderen Weg: Es wird eine Abstraktionsschicht zwischen den vorhandenen Datenquellen und Reporting-Tools geschaffen. Hierbei ist es unwesentlich, um welche Art von Daten-Quelle und Daten-Format es sich handelt. Eine Speicherung der Daten ist nicht zwingend erforderlich, wodurch sich auch äußerst schlanke Integrationslösungen umsetzen lassen. Zudem kann der Datenzugriff in Echtzeit erfolgen. Die Konsistenz und Korrektheit der Informationen kann über Transformations-Funktionen implementiert werden. Darüber hinaus können bestehende Reporting-Werkzeuge wie BI-Lösungen, Portale, Dashboards, Apps und Unternehmenssoftware weiter genutzt werden, da die Abstraktionsschicht für eine Aufbereitung im notwendigen Zielformat sorgt.

Erheblicher Mehrwert durch Integrität, Konsistenz und Aktualität
Dank moderner Technologie ist Datenvirtualisierung nicht nur leistungsfähiger als die klassische Datenintegration, sondern auch agiler und wirtschaftlicher. Hierfür sorgt zunächst der hohe Automatisierungsgrad. Virtualisierungslösungen führen die Bereinigung, Korrektur, Standardisierung, Aggregation und Transformation von Daten völlig entkoppelt von der Datenquelle und dem Datenformat durch, ohne die Daten mehrfach zu speichern. Aus technischer Sicht übernimmt ein Virtualisierungsserver die Datenbereitstellung. Er hat die Kernaufgabe, gespeicherte Daten aus nahezu allen On-Premise und Cloud-Quellen zu integrieren. Business-Anwender arbeiten dank dieses Ansatzes nur noch mit einer zentralen, logischen Datenbank. Verteilte Systeme und Cloud-Migrationen sind somit nicht mehr wahrnehmbar. Nicht zuletzt gewährleistet der Server ein hohes Maß an Datenschutz und Datensicherheit.

In zunehmend schnelllebigen Märkten sind Ad-hoc-Analysen ein weiterer wichtiger Faktor. Unternehmen können es sich schlicht nicht mehr leisten, mehrere Wochen auf die Umsetzung neuer Reports zu warten. Auch hier spielt Datenvirtualisierung ihre Stärken aus. Sie ermöglicht den Echtzeit-Zugriff auf qualitativ hochwertige Daten im notwendigen Format. Dies wiederum führt zu einer schnelleren Reaktionsfähigkeit bei Marktveränderungen und zu einer verkürzten Time-to-Market bei neuen Produkten oder Services.

Verlässliche, nachvollziehbare und anpassbare Daten
Bei Bedarf haben Unternehmen mithilfe der Datenvirtualisierung die Möglichkeit, sämtliche Datenelemente zu dokumentieren. Zudem lassen sich Schlagwörter vergeben, nach denen die Endanwender suchen können. Weiterhin können die Beziehungen zwischen den Datenelementen visualisiert werden. Aufgrund der zentralen Definition und Speicherung wird außerdem der Transformationsprozess von der Quelle bis zum Zielformat transparent. Dies stärkt das Vertrauen in Analyse-Ergebnisse zusätzlich.

Als weiterer Vorteil sei die Anpassbarkeit der Daten genannt. Aufgrund der zentralen Verfügbarkeit sämtlicher Transformationsspezifikationen und dem reduzierten Bedarf an physischen Datenbankkomponenten lassen sich Umgebungen wesentlich einfacher an neue, individuelle Erfordernisse anpassen. Datenvirtualisierung fördert also die Informationsagilität und -flexibilität.

Intelligente Lösung für den Zugriff auf Unternehmensdaten
Datenvirtualisierung ermöglicht es Unternehmen, den Mehrwert von Unternehmensdaten auf intelligente und wirtschaftliche Weise zu erschließen. Vorteilhaft ist insbesondere der parallele Echtzeit-Zugriff auf unterschiedlichste, unternehmensweit genutzte Datenhaltungssysteme. Die hierdurch entstehende Reaktionsfähigkeit ist als klarer Geschäftsvorteil zu werten.
(Denodo: ra)

eingetragen: 11.08.19
Newsletterlauf: 11.09.19

Denodo: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Tipps und Hinweise

  • Sicher modernisieren & Daten schützen

    Viele Unternehmen haben die Cloud-Migration ihrer SAP-Landschaften lange Zeit aufgeschoben. ERP-Anwendungslandschaften, sind über viele Jahre hinweg gewachsen, die Verflechtungen vielfältig, die Datenmengen enorm und die Abhängigkeit der Business Continuity von diesen Systemen gigantisch. Dennoch: Der Druck zur ERP-Modernisierung steigt und viele Unternehmen werden 2025 das Projekt Cloud-Migration mit RISE with SAP angehen.

  • Was tun mit ausgedienten Rechenzentren?

    Rund um die Jahrtausendwende begann in Deutschland ein wahrer Bauboom für Datacenter und Colocation-Flächen. Viele dieser Anlagen befinden sich auch heute noch in Betrieb. Doch die rasante Entwicklung der Informationstechnologie führt dazu, dass Rechenzentren in immer kürzeren Abständen modernisiert oder ersetzt werden müssen. Denn wann immer ein Betreiber den Spatenstich für ein neues Datacenter feiert, dürfen die Begriffe "Nachhaltigkeit" und "Umweltschutz" nicht fehlen.

  • Tipps für MSPs im Jahr 2025

    Ob durch technologische Innovationen, geschicktes Marketing oder eine starke Unternehmenskultur - mit den richtigen Maßnahmen können MSPs im Jahr 2025 nicht nur ihre Wettbewerbsfähigkeit steigern, sondern auch langfristig wachsen. Hier sind acht Tipps, die ihnen dabei helfen, das Jahr erfolgreich zu gestalten.

  • KI-Logik in der Unternehmenssoftware

    Für Unternehmen stellt sich nicht mehr die Frage, ob, sondern wie sie Künstliche Intelligenz für ihren Business Case nutzen. Der meist aufwändigen Implementierung von KI-Tools in bestehende Systeme sagt innovative Software jetzt den Kampf an - mit bereits in die Lösung eingebetteter KI. IFS, Anbieterin von Cloud-Business-Software, zeigt, wie Unternehmen anstatt der schwerfälligen Integration von externen Tools ein technologisches Komplettpaket erhalten, das sofort einsatzfähig ist.

  • Schutz von Cloud-Daten

    In der aktuellen Umfrage "2024 State of Cloud Strategy Survey" geben 79 Prozent der Befragten in Unternehmen an, dass sie Multicloud im Einsatz haben oder die Implementierung von Multicloud planen. Die Chancen stehen also gut, dass Multicloud-Strategien weiter zunehmen werden, wenngleich das nicht bedeutet, dass lokale und private Clouds verschwinden.

  • Das Herzstück des Betriebs

    Salt Typhoon mag ein Weckruf sein, aber es ist auch eine Gelegenheit, die Abwehrkräfte zu stärken und Unternehmen gegen aufkommende Bedrohungen zukunftssicher zu machen. Der Angriff hat Schwachstellen im Telekommunikations- und ISP-Sektor aufgedeckt, aber die daraus gezogenen Lehren gehen weit über eine einzelne Branche hinaus. Ob Telekommunikationsunternehmen, Internetdienstanbieter, SaaS-abhängiges Unternehmen oder Multi-Cloud-Unternehmen - Datensicherung muss für alle oberste Priorität haben.

  • Optimale Wissensspeicher

    Graphdatenbanken sind leistungsstarke Werkzeuge, um komplexe Daten-Beziehungen darzustellen und vernetzte Informationen schnell zu analysieren. Doch jeder Datenbanktyp hat spezifische Eigenschaften und eignet sich für andere Anwendungsfälle. Welche Graphdatenbank ist also wann die richtige? Aerospike empfiehlt Unternehmen, ihre Anforderungen unter vier Gesichtspunkten zu prüfen.

  • Zugang zu anfälligen Cloud-Hosts

    Zwischen 2023 und 2024 haben laut einer aktuellen Studie 79 Prozent der Finanzeinrichtungen weltweit mindestens einen Cyberangriff identifiziert (2023: 68 Prozent). Hierzulande berichtet die BaFin, dass 2023 235 Meldungen über schwerwiegende IT-Probleme eingegangen sind. Fünf Prozent davon gehen auf die Kappe von Cyberangreifern.

  • Wachsende SaaS-Bedrohungen

    Die jüngsten Enthüllungen über den massiven Cyberangriff von Salt Typhoon auf globale Telekommunikationsnetzwerke sind eine deutliche Erinnerung an die sich entwickelnde und ausgeklügelte Natur von Cyberbedrohungen. Während die Angreifer sich darauf konzentrierten, Kommunikation abzufangen und sensible Daten zu entwenden, werfen ihre Handlungen ein Schlaglicht auf ein umfassenderes, dringenderes Problem: die Unzulänglichkeit traditioneller Datensicherungsmethoden beim Schutz kritischer Infrastrukturen.

  • Einführung des Zero-Trust-Frameworks

    Die Cyber-Sicherheit entwickelt sich mit rasanter Geschwindigkeit, weshalb eine traditionelle Verteidigung den Anforderungen nicht mehr gerecht wird. Moderne Cyber-Bedrohungen bewegen sich inzwischen mühelos seitlich innerhalb von Netzwerken und nutzen Schwachstellen aus, die mit traditionellen Perimeter-Schutzmaßnahmen nicht vollständig behoben werden können.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen