Data Warehouse-Transformation


Ausblick auf die Data Warehouse-Landschaft 2018: Automatisierung wird entscheidend für Kunden sein
Mehr Unternehmen setzen bereits auf die Cloud als bevorzugte Architektur für ihre Datenumgebung, und 2018 wird ein Wendepunkt für die Einführung sein



Von Neil Barton, CTO bei WhereScape

In der Vergangenheit bauten Entwicklerteams Data Warehouses manuell, und Führungskräfte fokussierten sich nicht primär auf die Effizienz dieses Vorgangs. Doch mittlerweile erkennen sie, dass ein Großteil hiervon automatisiert werden kann, um die Bereitstellung von Entscheidungsdaten, die sie täglich benötigen, zu beschleunigen. Bereits 2017 haben Führungskräfte begonnen, das "Wie" der Daten in Frage zu stellen, und die Automatisierung der Dateninfrastruktur sowie die Beseitigung manueller und redundanter Elemente aus dem Entwicklungsprozess rückte in den Fokus.

Die Fortschritte in den Bereichen Automatisierung, Cloud und DevOps werden im kommenden Jahr die Art und Weise verändern, wie Data Warehouses aufgebaut und verwaltet werden und wie Unternehmen mit Daten arbeiten. Zukünftig wird die Technologie endlich auf die Bedürfnisse des jeweiligen Unternehmens abgestimmt sein, und als Ergebnis allmählich der Wert realisiert werden, den Data Warehouses liefern können.

2018 wird eine zunehmende Verlagerung hin zur Integration neuer Datenplattformen zusammen mit der traditionellen relationalen Datenbank zu beobachten sein, um eine breitere Palette von Verarbeitungsfunktionen besser nutzen zu können und eine vielfältigere Informationsumgebung mit der Flexibilität und Skalierbarkeit zu bieten, die es ermöglicht, mit einem Unternehmen zu wachsen. Die Automatisierung wird für die Entwicklung und Weiterentwicklung dieser Umgebung von entscheidender Bedeutung sein.

IoT – effektive Methoden zur Analyse massiver Datenströme
Im Jahr 2018 wird sich die Zahl der Unternehmen, die IoT-Fähigkeiten in diesem Bereich nutzen, aufgrund der technologischen Fortschritte, die mit Sensoren erzielt wurden, und des Wertes, der durch die gesammelten Daten realisiert wird, weiter rapide vergrößern. Der Segen und möglicherweise auch der Fluch der atemberaubenden Geschwindigkeit, mit der Unternehmen IoT-Sensoren einsetzen, sind die riesigen Datenmengen, die bei der Verfolgung von Dingen in Echtzeit anfallen. Darüber hinaus ist die zusätzliche Komplexität der Kombination dieser riesigen Daten, die in einer Vielzahl von Formen in das Unternehmen einfließen, von großem Nutzen für die Analytik.

Im nächsten Jahr werden sich die Unternehmen weiterhin mit dem Wunsch auseinandersetzen, Daten von Sensoren im Feld zu sammeln und zu verstehen, wie diese Daten am besten genutzt werden können. Um dies zu nutzen, müssen Unternehmen Technologien implementieren, die den konstanten Datenstrom bewältigen können, und zusätzlich nach effektiveren Methoden zur Analyse der Daten suchen, wie zum Beispiel maschinelles Lernen und Deep-Learning, um einen verwertbaren Einblick zu erhalten.

Data Lake-Konzepte
Data Lakes sind kein neues Konzept, aber mit zunehmender Datenerhebung und der Notwendigkeit, all diese Rohdaten zu speichern, werden sie immer wichtiger für den Erfolg des datengetriebenen Geschäfts. 2018 wird wahrscheinlich das Jahr sein, in dem die Unternehmen beginnen zu verstehen, was "Schema-on-Use" wirklich bedeutet und die damit verbundenen Auswirkungen auf formalisierte "data quality"-Programme und -Praktiken. Nur ein gut verwalteter Data Lake wird erfolgreich sein - der Rest verwelkt und stirbt.

Wenn ein Data Lake korrekt eingerichtet ist, kann er alle Daten und Informationen, die in einem Unternehmen gespeichert wurden, in einem dynamischen, unstrukturierten Repository speichern, das Flexibilität und schnelle Veränderungen ermöglicht und den Weg für zukünftige Self-Service-Analysen ebnet.

Datenumgebung Cloud
Mehr Unternehmen setzen bereits auf die Cloud als bevorzugte Architektur für ihre Datenumgebung, und 2018 wird ein Wendepunkt für die Einführung sein. Cloud-first wird wahrscheinlich zur Normalität werden und selbst große Unternehmen werden diese Haltung voll und ganz akzeptieren. Die größte Herausforderung für Unternehmen, die diesen Übergang vollziehen, wird sein, wie sie den Zeitraum, in dem sie über Daten sowohl on-Premise als auch in der Cloud verfügen, bewältigen können. Wir arbeiten bereits mit Unternehmen zusammen, um automatisierte und effiziente hybride Datenumgebungen zu entwickeln und zu betreiben, und erwarten, dass diese Zahl im nächsten Jahr drastisch ansteigen wird.

Über Neil Barton
Neil Barton ist Chief Technology Officer (CTO) bei WhereScape und in Portland/Oregon ansässig. Er leitet die langfristige Architektur- und Technologievision für WhereScape's branchenführende Datenautomationslösungen. Barton konzentrierte sich als Senior Architect bei WhereScape auf große Datenlösungen und verfügt über mehr als 20 Jahre Erfahrung in den Bereichen Software-Architektur, Data Warehousing und Business Intelligence, unter anderem bei Oracle Australia und Sequent Computer Systems. Barton ist auch Miterfinder von drei US-Patenten im Zusammenhang mit Business-Intelligence-Softwarelösungen
(WhereScape: ra)

eingetragen: 11.01.18
Home & Newsletterlauf: 05.02.18

WhereScape: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Kommentare und Meinungen

  • Weg zur echten Cloud-Souveränität

    Europäische Unternehmen haben die Cloud als einen Gamechanger erkannt, für viele steht sie sogar im Mittelpunkt ihrer Strategie. In einer sich schnell wandelnden Geschäftswelt bietet die Cloud enorme Vorteile, insbesondere in Bezug auf Flexibilität und Reaktionsfähigkeit. Regulierte Branchen wie der Finanzsektor, das Gesundheitswesen oder der öffentliche Dienst müssen jedoch gleichzeitig komplexe Anforderungen in Bezug auf Datenkontrolle und rechtliche Rahmenbedingungen erfüllen.

  • Backups in der Cloud

    Egal wo sich geschäftskritische Daten und Workloads befinden - sie müssen entsprechend geschützt werden, um einen kontinuierlichen Betrieb sicherzustellen. Im Rahmen der gängigen 3-2-1-Backup-Regel, die von den meisten Unternehmen genutzt wird, werden immer mehr Backups in der Cloud gespeichert.

  • Vorteile der Multi-Cloud-Arbitrage nutzen

    Die im Januar 2024 in Kraft getretene EU-Datenverordnung, die den Wettbewerb fördern soll, indem sie Cloud-Kunden den Anbieterwechsel erleichtert, wirbelt den Markt für Cloud-Dienste kräftig durcheinander - zum Vorteil von Unternehmen, meint Jamil Ahmed, Director und Distinguished Engineer bei Solace. Offener Datentransfer zwischen den großen Cloud-Plattformen ist damit Wirklichkeit geworden.

  • eco zur AI Act-Abstimmung im EU-Parlament

    Im Europäischen Parlament fand die finale Abstimmung über den Artificial Intelligence Act (AI Act) statt, der wegweisende Regelungen für den Einsatz von Künstlicher Intelligenz in der EU vorsieht.

  • Cloud-Kunden den Anbieterwechsel erleichtern

    Die im Januar 2024 in Kraft getretene EU-Datenverordnung, die den Wettbewerb fördern soll, indem sie Cloud-Kunden den Anbieterwechsel erleichtert, wirbelt den Markt für Cloud-Dienste kräftig durcheinander - zum Vorteil von Unternehmen, meint Jamil Ahmed, Director und Distinguished Engineer bei Solace.

  • Kriterien im Umgang mit KI-Systemen

    eco - Verband der Internetwirtschaft e.V. forderte anlässlich der Abstimmung über den AI Act im Ausschuss der ständigen Vertreter der EU-Mitgliedsstaaten eine praxistaugliche Umsetzung und EU-weit einheitliche Kriterien im Umgang mit KI-Systemen.

  • Trends der Netzwerktechnologie 2024

    Künstliche Intelligenz und Cloud Computing ergänzen sich symbiotisch. Obwohl ML und KI keine neuen Technologien und Konzepte sind, hat die Verfügbarkeit großer Rechen- und Speicherkapazitäten über die Cloud die jüngsten Entwicklungen von KI beschleunigt.

  • Datenmengen häufen sich

    Immer mehr Unternehmen in Deutschland setzen auf Cloud Computing - Tendenz steigend. Dabei nennt sich die Verlagerung von Rechenressourcen wie etwa Daten, Anwendungen oder IT-Prozesse in die Cloud-Migration.

  • Datenflut in der Multi-Cloud-Welt

    Künstliche Intelligenz (KI) markiert aktuell einen wichtigen Wendepunkt für die Technologiebranche. Die in den 1950er Jahren von John McCarthy geprägt Technik hat sich jahrzehntelang hauptsächlich im Hintergrund weiterentwickelt, bis die Veröffentlichung des generativen KI-Tools ChatGPT den Durchbruch brachte.

  • Bitkom zum KI-Aktionsplan

    Bitkom begrüßt den KI-Aktionsplan des BMBF. Schon heute ist Deutschland in der Forschung rund um KI sehr gut aufgestellt und es ist richtig, sie weiter auszubauen. Wie diese Initiative des Forschungsministeriums in die Gesamtstrategie der Bundesregierung zur Künstlichen Intelligenz eingebettet werden soll, bleibt hingegen offen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen