Data Warehouse-Transformation


Ausblick auf die Data Warehouse-Landschaft 2018: Automatisierung wird entscheidend für Kunden sein
Mehr Unternehmen setzen bereits auf die Cloud als bevorzugte Architektur für ihre Datenumgebung, und 2018 wird ein Wendepunkt für die Einführung sein



Von Neil Barton, CTO bei WhereScape

In der Vergangenheit bauten Entwicklerteams Data Warehouses manuell, und Führungskräfte fokussierten sich nicht primär auf die Effizienz dieses Vorgangs. Doch mittlerweile erkennen sie, dass ein Großteil hiervon automatisiert werden kann, um die Bereitstellung von Entscheidungsdaten, die sie täglich benötigen, zu beschleunigen. Bereits 2017 haben Führungskräfte begonnen, das "Wie" der Daten in Frage zu stellen, und die Automatisierung der Dateninfrastruktur sowie die Beseitigung manueller und redundanter Elemente aus dem Entwicklungsprozess rückte in den Fokus.

Die Fortschritte in den Bereichen Automatisierung, Cloud und DevOps werden im kommenden Jahr die Art und Weise verändern, wie Data Warehouses aufgebaut und verwaltet werden und wie Unternehmen mit Daten arbeiten. Zukünftig wird die Technologie endlich auf die Bedürfnisse des jeweiligen Unternehmens abgestimmt sein, und als Ergebnis allmählich der Wert realisiert werden, den Data Warehouses liefern können.

2018 wird eine zunehmende Verlagerung hin zur Integration neuer Datenplattformen zusammen mit der traditionellen relationalen Datenbank zu beobachten sein, um eine breitere Palette von Verarbeitungsfunktionen besser nutzen zu können und eine vielfältigere Informationsumgebung mit der Flexibilität und Skalierbarkeit zu bieten, die es ermöglicht, mit einem Unternehmen zu wachsen. Die Automatisierung wird für die Entwicklung und Weiterentwicklung dieser Umgebung von entscheidender Bedeutung sein.

IoT – effektive Methoden zur Analyse massiver Datenströme
Im Jahr 2018 wird sich die Zahl der Unternehmen, die IoT-Fähigkeiten in diesem Bereich nutzen, aufgrund der technologischen Fortschritte, die mit Sensoren erzielt wurden, und des Wertes, der durch die gesammelten Daten realisiert wird, weiter rapide vergrößern. Der Segen und möglicherweise auch der Fluch der atemberaubenden Geschwindigkeit, mit der Unternehmen IoT-Sensoren einsetzen, sind die riesigen Datenmengen, die bei der Verfolgung von Dingen in Echtzeit anfallen. Darüber hinaus ist die zusätzliche Komplexität der Kombination dieser riesigen Daten, die in einer Vielzahl von Formen in das Unternehmen einfließen, von großem Nutzen für die Analytik.

Im nächsten Jahr werden sich die Unternehmen weiterhin mit dem Wunsch auseinandersetzen, Daten von Sensoren im Feld zu sammeln und zu verstehen, wie diese Daten am besten genutzt werden können. Um dies zu nutzen, müssen Unternehmen Technologien implementieren, die den konstanten Datenstrom bewältigen können, und zusätzlich nach effektiveren Methoden zur Analyse der Daten suchen, wie zum Beispiel maschinelles Lernen und Deep-Learning, um einen verwertbaren Einblick zu erhalten.

Data Lake-Konzepte
Data Lakes sind kein neues Konzept, aber mit zunehmender Datenerhebung und der Notwendigkeit, all diese Rohdaten zu speichern, werden sie immer wichtiger für den Erfolg des datengetriebenen Geschäfts. 2018 wird wahrscheinlich das Jahr sein, in dem die Unternehmen beginnen zu verstehen, was "Schema-on-Use" wirklich bedeutet und die damit verbundenen Auswirkungen auf formalisierte "data quality"-Programme und -Praktiken. Nur ein gut verwalteter Data Lake wird erfolgreich sein - der Rest verwelkt und stirbt.

Wenn ein Data Lake korrekt eingerichtet ist, kann er alle Daten und Informationen, die in einem Unternehmen gespeichert wurden, in einem dynamischen, unstrukturierten Repository speichern, das Flexibilität und schnelle Veränderungen ermöglicht und den Weg für zukünftige Self-Service-Analysen ebnet.

Datenumgebung Cloud
Mehr Unternehmen setzen bereits auf die Cloud als bevorzugte Architektur für ihre Datenumgebung, und 2018 wird ein Wendepunkt für die Einführung sein. Cloud-first wird wahrscheinlich zur Normalität werden und selbst große Unternehmen werden diese Haltung voll und ganz akzeptieren. Die größte Herausforderung für Unternehmen, die diesen Übergang vollziehen, wird sein, wie sie den Zeitraum, in dem sie über Daten sowohl on-Premise als auch in der Cloud verfügen, bewältigen können. Wir arbeiten bereits mit Unternehmen zusammen, um automatisierte und effiziente hybride Datenumgebungen zu entwickeln und zu betreiben, und erwarten, dass diese Zahl im nächsten Jahr drastisch ansteigen wird.

Über Neil Barton
Neil Barton ist Chief Technology Officer (CTO) bei WhereScape und in Portland/Oregon ansässig. Er leitet die langfristige Architektur- und Technologievision für WhereScape's branchenführende Datenautomationslösungen. Barton konzentrierte sich als Senior Architect bei WhereScape auf große Datenlösungen und verfügt über mehr als 20 Jahre Erfahrung in den Bereichen Software-Architektur, Data Warehousing und Business Intelligence, unter anderem bei Oracle Australia und Sequent Computer Systems. Barton ist auch Miterfinder von drei US-Patenten im Zusammenhang mit Business-Intelligence-Softwarelösungen
(WhereScape: ra)

eingetragen: 11.01.18
Home & Newsletterlauf: 05.02.18

WhereScape: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Kommentare und Meinungen

  • Lieber in der Private Cloud

    In wirtschaftlich schwierigen Zeiten wird in vielen Unternehmen reflexartig der Rotstift angesetzt: Überall und ungefiltert wird gekürzt. Doch die Geschichte zeigt: Auf jedes Konjunkturtal folgt ein Aufschwung, erste Anzeichen sind bereits sichtbar. Deshalb ist es klüger, antizyklisch zu handeln - dort zu investieren, wo der größte Hebel für künftiges Wachstum liegt. Und der liegt in Innovationen, meint Bernhard Kretschmer, Managing Director und Vice President Services bei NTT Germany.

  • Die Zukunft der Cloud in Europa

    Die Nutzung der Hybrid-Cloud wird in Europa weiter stark zunehmen. Diese Entwicklung wird durch verschiedene Faktoren vorangetrieben. Erstens wächst der Cloud-Markt insgesamt stark, da immer mehr Unternehmen auf neue Technologien wie künstliche Intelligenz (KI) setzen, die eine leistungsfähige und skalierbare Infrastruktur voraussetzen. Insbesondere in Branchen wie dem Gesundheitswesen und dem Finanzsektor, in denen große Datenmengen verarbeitet werden, steigt die Nachfrage nach leistungsstarken Cloud-Lösungen. KI-basierte Anwendungen wie Automatisierungslösungen oder maschinelles Lernen benötigen enorme Rechenkapazitäten, die nur in der Cloud bereitgestellt werden können.

  • Cloud-Lösungen für die öffentliche Verwaltung

    Eine zeitgemäße öffentliche Verwaltung lässt sich nur durch eine entschlossene digitale Transformation erreichen. Dabei ist digitale Souveränität keine Option, sondern eine Notwendigkeit. Während Deutschland Milliarden in Verteidigung steckt, um geopolitisch unabhängiger zu werden, lassen wir uns gleichzeitig in einer digitalen Welt freiwillig an die Kette legen.

  • Goldgräberstimmung im KI-Sektor

    Die Goldgräberstimmung im KI-Sektor wird auch im kommenden Jahr anhalten und es ist zu erwarten, dass die Neuentwicklung von Applikationen vor allem durch Start-ups vorangetrieben wird. Da der Bedarf an Speicher- und Rechenkapazitäten von KI-Anwendungen vor allem im Entwicklungsstadium sehr hoch ist, wird der Markt eine große Nachfrage nach GPUs erleben.

  • "Bring your own AI": Jeder nutzt, was er möchte

    Weil es keine zentralen KI-Tools gibt, besorgen sich viele Mitarbeitende oder Abteilungen solche Werkzeuge einfach auf eigene Faust. Das führt zu einem unkontrollierbaren und ineffizienten Wildwuchs und setzt die Unternehmen großen Risiken aus. Deshalb sollten sie besser selbst die Initiative ergreifen und strategisch vorgehen.

  • Abhängigkeit von den USA vermeiden

    Der erneute Wahlsieg von Donald Trump in den USA hat nicht nur politische, sondern auch technologische Implikationen für Deutschland. Besonders drängt die Frage: Wie stark ist Deutschland noch auf US-amerikanische Tech-Giganten angewiesen? leitzcloud by vBoxx, ein DSGVO-konformer Cloud-Anbieter aus Deutschland, appelliert an die Politik, die Nutzung europäischer Alternativen zu fördern, um digitale Souveränität zu sichern.

  • Künstliche Intelligenz muss Chefsache sein

    Länder wie die USA und China gelten als Spitzenreiter in Sachen Künstliche Intelligenz. Und Deutschland? Hier wird KI oft lediglich als Prozessbeschleuniger oder Effizienzoptimierer betrachtet - und auch so eingesetzt.

  • Weg zur echten Cloud-Souveränität

    Europäische Unternehmen haben die Cloud als einen Gamechanger erkannt, für viele steht sie sogar im Mittelpunkt ihrer Strategie. In einer sich schnell wandelnden Geschäftswelt bietet die Cloud enorme Vorteile, insbesondere in Bezug auf Flexibilität und Reaktionsfähigkeit. Regulierte Branchen wie der Finanzsektor, das Gesundheitswesen oder der öffentliche Dienst müssen jedoch gleichzeitig komplexe Anforderungen in Bezug auf Datenkontrolle und rechtliche Rahmenbedingungen erfüllen.

  • Backups in der Cloud

    Egal wo sich geschäftskritische Daten und Workloads befinden - sie müssen entsprechend geschützt werden, um einen kontinuierlichen Betrieb sicherzustellen. Im Rahmen der gängigen 3-2-1-Backup-Regel, die von den meisten Unternehmen genutzt wird, werden immer mehr Backups in der Cloud gespeichert.

  • Vorteile der Multi-Cloud-Arbitrage nutzen

    Die im Januar 2024 in Kraft getretene EU-Datenverordnung, die den Wettbewerb fördern soll, indem sie Cloud-Kunden den Anbieterwechsel erleichtert, wirbelt den Markt für Cloud-Dienste kräftig durcheinander - zum Vorteil von Unternehmen, meint Jamil Ahmed, Director und Distinguished Engineer bei Solace. Offener Datentransfer zwischen den großen Cloud-Plattformen ist damit Wirklichkeit geworden.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen