Sie sind hier: Startseite » Markt » Tipps und Hinweise

Sechs Gründe für Datenvirtualisierung


Datenvirtualisierung ergänzt traditionelle Data Warehousing-Methoden
Die Datenvirtualisierung ist nicht nur wesentlich billiger, sondern auch ein viel schnellerer Weg zur Verwaltung von Unternehmensdaten


Im Zeitalter von Big Data und Cloud Computing, mit explodierendem Datenvolumen und zunehmender Datenvielfalt, können es sich Unternehmen nicht mehr leisten, zahlreiche Kopien und Reproduktionen der Daten zu speichern, die sie für ihr Geschäft benötigen. Deshalb werden bis 2020 mehr als ein Drittel (50 Prozent) der Unternehmen laut Gartner eine Form der Datenvirtualisierung als effiziente und kostensparende Option für die Datenintegration implementieren.

Wie profitieren Unternehmen genau davon? Denodo zeigt die sechs wichtigsten Gründe auf, die für den Einsatz von Datenvirtualisierung sprechen:

1. Gesamtüberblick über alle Datenquellen hinweg
Wir leben in einer Welt, die zunehmend von Daten dominiert wird. Die aktuelle Data-Age-2025-Studie, die von IDC durchgeführt und von Seagate gesponsert wurde, prognostiziert, dass das Datenwachstum bis zum Jahr 2025 insgesamt 163 Zettabyte betragen wird. Das bedeutet, dass sich das Gesamtdatenvolumen in den nächsten sieben Jahren weltweit verzehnfachen wird.

Die Datenvirtualisierung gibt einem Unternehmen eine einzige, ganzheitliche Sicht auf alle seine Daten, indem sie Informationen, die in mehreren Quellen gespeichert sind, miteinander verbindet und integriert. Somit haben Benutzer oder Applikationen alle Daten in einer einzigen Ansicht zur Verfügung.

2. Sparpotential gegenüber traditionellen Datenintegrations-Tools
Herkömmliche Datenintegrations-Tools erfordern in der Regel die physische Replikation, Verschiebung und wiederholte Speicherung von Daten, was sowohl zeitaufwändig als auch teuer ist. Datenvirtualisierung sammelt alle Daten eines Unternehmens aus verschiedenen Quellen – das können Management-Applikationen, Cloud Computing-Umgebungen, Big Data, Drittanbieter, soziale Netzwerke und andere Quellen sein – und bündelt sie in einem einzigen Format.

3. Unternehmen erhalten Echtzeitzugriff auf alle ihre Daten
Die Datenvirtualisierung ist nicht nur wesentlich billiger, sondern auch ein viel schnellerer Weg zur Verwaltung von Unternehmensdaten. Die Methode liefert schnelle und genaue Resultate in Echtzeit, niemand muss mehr tagelang auf Ergebnisse warten. Früher war schlechte Leistung oft auf Netzwerklatenzen zurückzuführen, die aus Verzögerungen durch die Übertragung großer Datenmengen resultierten. Datenvirtualisierungslösungen umgehen dieses Problem und verbinden sich direkt mit den Datenquellen, so dass sie sofort wertvolle Geschäftsinformationen liefern können.

4. Ergänzung zu traditionellen Data Warehousing-Methoden
Datenvirtualisierung ergänzt traditionelle Data Warehousing-Methoden, mit dem Hauptvorteil, dass sie eine Kostenreduzierung bietet und es einem Unternehmen ermöglicht, eine vollständig integrierte Einzelansicht aller Daten zu erstellen. Das ist eine weitaus agilere Art des Zugriffs und der Nutzung der Daten, ohne dass ständige Replikation erforderlich ist.

5. Dynamische, nutzerfreundliche und unentbehrliche Hilfe für die Entscheidungsträger
Datenvirtualisierung ermöglicht es allen Usern, selbst auf hochwertige Echtzeitdaten zuzugreifen und diese zu nutzen, anstatt sich auf die IT oder andere technische Teams verlassen zu müssen. Die gesamten Abteilungen sind besser mit aktuellen Informationen versorgt, unabhängig vom Standort. Es geht darum, geschäftsorientierte Ansichten zu erstellen, die leicht verständlich sind.

6. EU-DSGVO-Compliance
Schließlich geht es bei der Implementierung von Datenvirtualisierung neben den oben beschriebenen Kosten- und Zeiteinsparungen auch darum, die Daten und den Datenschutz der Kunden, was in der Zeit nach der EU-DSGVO besonders aktuell ist, kosten- und nutzungsorientiert zu schützen und zu sichern. Wenn Daten nicht mehr dupliziert und an mehreren Standorten gespeichert werden, begrenzt dass das potenzielle Risiko für Datenlecks, Hacks und fehlerhafte Software.

Fazit
Mit Datenvirtualisierung erhalten Unternehmen eine Lösung, mit der sie gegenüber herkömmlichen Integrations-Tools zwischen 50 und 80 Prozent Zeitersparnis realisieren können. Aus diesem Grund amortisieren sich die Investitionen für typische Datenvirtualisierungsprojekte in weniger als sechs Monaten. Somit können Unternehmen durch mehr Agilität und Flexibilität neue geschäftliche Herausforderungen besser meistern.
(Denodo: ra)

eingetragen: 09.11.18
Newsletterlauf: 27.11.18

Denodo: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Was Unternehmen beachten müssen

    Künstliche Intelligenz gehört für immer mehr Unternehmen ganz selbstverständlich zum Geschäftsalltag dazu. Insbesondere die generative KI (GenAI) erlebt einen Boom, den sich viele so nicht vorstellen konnten. GenAI-Modelle sind jedoch enorm ressourcenhungrig, sodass sich Firmen Gedanken über die Infrastruktur machen müssen. NTT DATA, ein weltweit führender Anbieter von digitalen Business- und Technologie-Services, zeigt, warum die Cloud der Gamechanger für generative KI ist.

  • SAP mit umfassender Cloud-Strategie

    Für die digitale Transformation von Unternehmen setzt SAP auf eine umfassende Cloud-Strategie. Hier bietet SAP verschiedene Lösungen an. Neben der SAP Public Cloud, die sehr stark auf den SME-Markt zielt, bedient die Industry Cloud als Kombination aus Private Cloud und industriespezifischen Cloud-Lösungen eher den LE-Markt.

  • Warum steigende IT-Kosten das kleinere Übel sind

    Es gibt Zeiten, in denen sind CIOs wirklich nicht zu beneiden. Zum Beispiel dann, wenn sie der Unternehmensführung wieder einmal erklären müssen, warum erneut höhere Investitionen in die IT nötig sind. Eines der größten Paradoxe dabei: Kosten steigen auf dem Papier auch dann, wenn eigentlich aus Kostengründen modernisiert wird. Der Umstieg vom eigenen Server im Keller in die Cloud? Mehrkosten. Neue SaaS-Lösungen?

  • Optimierung von Java-Workloads in der Cloud

    Cloud-Infrastrukturen versprechen Skalierbarkeit, Effizienz und Kostenvorteile. Doch um Engpässe zu vermeiden, überprovisionieren viele Unternehmen ihre Cloud-Kapazitäten - und bezahlen so oftmals für Ressourcen, die sie gar nicht nutzen. Wie lässt sich das ändern? Ein zentraler Hebel ist die Optimierung von Java-Workloads in der Cloud. Cloud-Infrastrukturen bringen viele Vorteile, aber auch neue Komplexität und oft unerwartet hohe Kosten mit sich. Bei vielen Unternehmen nehmen Java-Umgebungen und -Anwendungen große Volumina in gebuchten Cloud-Kapazitäten ein, denn Java gehört noch immer zu den beliebtesten Programmiersprachen: Laut dem aktuellen State of Java Survey and Report 2025 von Azul geben 68 Prozent der Befragten an, dass über 50 Prozent ihrer Anwendungen mit Java entwickelt wurden oder auf einer JVM (Java Virtual Machine) laufen.

  • Wer Cloud sagt, muss Datensouveränität denken

    Die Cloud hat sich längst zu einem neuen IT-Standard entwickelt. Ihr Einsatz bringt allerdings neue Herausforderungen mit sich - insbesondere im Hinblick auf geopolitische Risiken und die Gefahr einseitiger Abhängigkeiten. Klar ist: Unternehmen, Behörden und Betreiber kritischer Infrastrukturen benötigen eine kompromisslose Datensouveränität. Materna Virtual Solution zeigt, welche zentralen Komponenten dabei entscheidend sind.

  • Fünf Mythen über Managed Services

    Managed Services sind ein Erfolgsmodell. Trotzdem existieren nach wie vor einige Vorbehalte gegenüber externen IT-Services. Die IT-Dienstleisterin CGI beschreibt die fünf hartnäckigsten Mythen und erklärt, warum diese längst überholt sind.

  • KI-Herausforderung: Mehr Daten, mehr Risiko

    Künstliche Intelligenz (KI) revolutioniert weiterhin die Geschäftswelt und hilft Unternehmen, Aufgaben zu automatisieren, Erkenntnisse zu gewinnen und Innovationen in großem Umfang voranzutreiben. Doch es bleiben Fragen offen, vor allem wenn es um die Art und Weise geht, wie KI-Lösungen Daten sicher verarbeiten und bewegen. Einem Bericht von McKinsey zufolge gehören Ungenauigkeiten in der KI sowie KI-Cybersecurity-Risiken zu den größten Sorgen von Mitarbeitern und Führungskräften.

  • Sichere Daten in der Sovereign Cloud

    Technologie steht im Mittelpunkt strategischer Ambitionen auf der ganzen Welt, aber ihr Erfolg hängt von mehr als nur ihren Fähigkeiten ab. Damit Dienste effektiv funktionieren, braucht es eine Vertrauensbasis, die den Erfolg dieser Technologie untermauert und eine verantwortungsvolle Speicherung der Daten, Anwendungen und Dienste gewährleistet.

  • Integration von Cloud-Infrastrukturen

    Cloud-Technologien werden zum Schlüsselfaktor für Wachstum und verbesserte Skalierbarkeit über das Kerngeschäft hinaus - auch bei Telekommunikationsanbietern (Telcos). Auch hier ist der Wandel zur Nutzung von Produkten und Dienstleistungen "On-Demand" im vollen Gange, sodass Telcos ihre Geschäftsmodelle weiterentwickeln und zunehmend als Managed-Service-Provider (MSPs) und Cloud-Service-Provider (CSPs) auftreten.

  • Acht Einsatzszenarien für Industrial AI

    Artificial Intelligence (AI) entwickelt sich zunehmend zur Schlüsselressource für die Wettbewerbsfähigkeit der deutschen Industrie. Doch wie weit ist die Branche wirklich? Laut einer aktuellen Bitkom-Befragung setzen bereits 42?Prozent der Industrieunternehmen des verarbeitenden Gewerbes in Deutschland AI in ihrer Produktion ein - ein weiteres Drittel (35?Prozent) plant entsprechende Projekte.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen