- Anzeige -


Data Warehouse-Transformation


Ausblick auf die Data Warehouse-Landschaft 2018: Automatisierung wird entscheidend für Kunden sein
Mehr Unternehmen setzen bereits auf die Cloud als bevorzugte Architektur für ihre Datenumgebung, und 2018 wird ein Wendepunkt für die Einführung sein


- Anzeigen -





Von Neil Barton, CTO bei WhereScape

In der Vergangenheit bauten Entwicklerteams Data Warehouses manuell, und Führungskräfte fokussierten sich nicht primär auf die Effizienz dieses Vorgangs. Doch mittlerweile erkennen sie, dass ein Großteil hiervon automatisiert werden kann, um die Bereitstellung von Entscheidungsdaten, die sie täglich benötigen, zu beschleunigen. Bereits 2017 haben Führungskräfte begonnen, das "Wie" der Daten in Frage zu stellen, und die Automatisierung der Dateninfrastruktur sowie die Beseitigung manueller und redundanter Elemente aus dem Entwicklungsprozess rückte in den Fokus.

Die Fortschritte in den Bereichen Automatisierung, Cloud und DevOps werden im kommenden Jahr die Art und Weise verändern, wie Data Warehouses aufgebaut und verwaltet werden und wie Unternehmen mit Daten arbeiten. Zukünftig wird die Technologie endlich auf die Bedürfnisse des jeweiligen Unternehmens abgestimmt sein, und als Ergebnis allmählich der Wert realisiert werden, den Data Warehouses liefern können.

2018 wird eine zunehmende Verlagerung hin zur Integration neuer Datenplattformen zusammen mit der traditionellen relationalen Datenbank zu beobachten sein, um eine breitere Palette von Verarbeitungsfunktionen besser nutzen zu können und eine vielfältigere Informationsumgebung mit der Flexibilität und Skalierbarkeit zu bieten, die es ermöglicht, mit einem Unternehmen zu wachsen. Die Automatisierung wird für die Entwicklung und Weiterentwicklung dieser Umgebung von entscheidender Bedeutung sein.

IoT – effektive Methoden zur Analyse massiver Datenströme
Im Jahr 2018 wird sich die Zahl der Unternehmen, die IoT-Fähigkeiten in diesem Bereich nutzen, aufgrund der technologischen Fortschritte, die mit Sensoren erzielt wurden, und des Wertes, der durch die gesammelten Daten realisiert wird, weiter rapide vergrößern. Der Segen und möglicherweise auch der Fluch der atemberaubenden Geschwindigkeit, mit der Unternehmen IoT-Sensoren einsetzen, sind die riesigen Datenmengen, die bei der Verfolgung von Dingen in Echtzeit anfallen. Darüber hinaus ist die zusätzliche Komplexität der Kombination dieser riesigen Daten, die in einer Vielzahl von Formen in das Unternehmen einfließen, von großem Nutzen für die Analytik.

Im nächsten Jahr werden sich die Unternehmen weiterhin mit dem Wunsch auseinandersetzen, Daten von Sensoren im Feld zu sammeln und zu verstehen, wie diese Daten am besten genutzt werden können. Um dies zu nutzen, müssen Unternehmen Technologien implementieren, die den konstanten Datenstrom bewältigen können, und zusätzlich nach effektiveren Methoden zur Analyse der Daten suchen, wie zum Beispiel maschinelles Lernen und Deep-Learning, um einen verwertbaren Einblick zu erhalten.

Data Lake-Konzepte
Data Lakes sind kein neues Konzept, aber mit zunehmender Datenerhebung und der Notwendigkeit, all diese Rohdaten zu speichern, werden sie immer wichtiger für den Erfolg des datengetriebenen Geschäfts. 2018 wird wahrscheinlich das Jahr sein, in dem die Unternehmen beginnen zu verstehen, was "Schema-on-Use" wirklich bedeutet und die damit verbundenen Auswirkungen auf formalisierte "data quality"-Programme und -Praktiken. Nur ein gut verwalteter Data Lake wird erfolgreich sein - der Rest verwelkt und stirbt.

Wenn ein Data Lake korrekt eingerichtet ist, kann er alle Daten und Informationen, die in einem Unternehmen gespeichert wurden, in einem dynamischen, unstrukturierten Repository speichern, das Flexibilität und schnelle Veränderungen ermöglicht und den Weg für zukünftige Self-Service-Analysen ebnet.

Datenumgebung Cloud
Mehr Unternehmen setzen bereits auf die Cloud als bevorzugte Architektur für ihre Datenumgebung, und 2018 wird ein Wendepunkt für die Einführung sein. Cloud-first wird wahrscheinlich zur Normalität werden und selbst große Unternehmen werden diese Haltung voll und ganz akzeptieren. Die größte Herausforderung für Unternehmen, die diesen Übergang vollziehen, wird sein, wie sie den Zeitraum, in dem sie über Daten sowohl on-Premise als auch in der Cloud verfügen, bewältigen können. Wir arbeiten bereits mit Unternehmen zusammen, um automatisierte und effiziente hybride Datenumgebungen zu entwickeln und zu betreiben, und erwarten, dass diese Zahl im nächsten Jahr drastisch ansteigen wird.

Über Neil Barton
Neil Barton ist Chief Technology Officer (CTO) bei WhereScape und in Portland/Oregon ansässig. Er leitet die langfristige Architektur- und Technologievision für WhereScape's branchenführende Datenautomationslösungen. Barton konzentrierte sich als Senior Architect bei WhereScape auf große Datenlösungen und verfügt über mehr als 20 Jahre Erfahrung in den Bereichen Software-Architektur, Data Warehousing und Business Intelligence, unter anderem bei Oracle Australia und Sequent Computer Systems. Barton ist auch Miterfinder von drei US-Patenten im Zusammenhang mit Business-Intelligence-Softwarelösungen
(WhereScape: ra)

eingetragen: 11.01.18
Home & Newsletterlauf: 05.02.18

WhereScape: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Kommentare und Meinungen

  • Meilenstein der Quantum Supremacy

    Obwohl es zweifellos ein enormer Meilenstein ist, dass Google die Überlegenheit der Quantencomputer - die so genannte Quantum Supremacy - belegen konnte, steht dem Unternehmen noch eine gewaltige Aufgabe bevor. Wenn schnelles und leistungsfähiges Quanten-Computing über die Cloud verfügbar wird, können riesige Datenmengen und Aufgaben millionenfach schneller bearbeitet werden. Die Technik wird damit unser Alltags- und Geschäftsleben entscheidend prägen. Beispielsweise könnten Anwendungen, die auf Quanten-Computing basieren, so diverse Problemfelder wie Verkehrsstaus, Internetkriminalität oder Krebserkrankungen einschränken oder gar verhindern. Dass Google nun den Meilenstein der Quantum Supremacy erreicht hat, bedeutet jedoch noch nicht, dass sie nun den Fuß vom Gas nehmen können. Vielmehr hat das Unternehmen damit den Startschuss für das Wettrennen um die Kommerzialisierung des Quanten-Computing gegeben. Denn nur mit dem Beleg, dass etwas möglich ist, kann man die Technologie noch lange nicht beherrschen.

  • Cloud-Sicherheit: Geteilte Verantwortung

    Wer übernimmt beim Cloud Computing die Verantwortung für die IT-Sicherheit? Vielen Unternehmen scheint weiterhin nicht umfangreich genug bewusst zu sein, dass es zwei verantwortliche Parteien gibt - und zwei Bereiche, die hier unabhängig voneinander geschützt werden: Zum einen ist da die Cloud selbst, für deren Schutz der Anbieter die Verantwortung übernimmt. Zum anderen sind da die gespeicherten Daten und aufgesetzten Anwendungen eines Unternehmens, das die Cloud nutzt. Deren Schutz - und hier liegt oft das Missverständnis - hat das Unternehmen zu verantworten, nicht der Anbieter. Shared Responsibility, also geteilte Verantwortung, beschreibt häufig das Verhältnis der beiden Beteiligten, doch scheitern noch viele Cloud-Projekte an dieser Idee.

  • Imageschaden für das Cloud-Konzept

    Schon wieder ein Datenvorfall: mehrere Millionen Patientendaten waren ungeschützt via Internet erreichbar. Das fanden der Bayerische Rundfunk und das US-Rechercheportal ProPublica heraus. Den Tipp gab ein IT-Sicherheitsspezialist. Ihm gelang es mühelos, Adressen und Röntgenbilder von Patienten, in Deutschland mehr als 13.000, anzusehen. Sinnentsprechend meinte der Security-Fachmann, dass er die Bilder wohl im Internet früher als die Ärzte gesehen habe. Wie konnte das passieren? Florian van Keulen, Solution Architect & Head of Product Design for Cloud und Cloud Security beim IT-Dienstleister Trivadis, kommentiert.

  • Compliance mit hiesigen Verordnungen

    Wie die Frankfurter Allgemeine Zeitung unter Berufung auf die Deutsche Bundesregierung berichtete, strebt Bundeswirtschaftsminister Peter Altmaier ein europäisches Cloud-Netzwerk an. Konkret sollen sich hier kleinere Anbieter aus dem Bereich Cloud verbünden, indem sie ein offenes Netzwerk bilden und somit Europa mit Rechenkraft versorgen. Als Quelle für diese Informationen nannte die FAZ ein internes Papier des Ministers, nach dem eine europäische Dateninfrastruktur das Ziel sei. Die Bundesregierung plane weiterhin, als Nutzer der europäischen Cloud eine zentrale Rolle zu übernehmen. Die Entscheidung, ob das vorerst auf "Gaia-X" getaufte Projekt als Unternehmen, Stiftung oder Verein gegründet werden solle, stehe derzeit noch aus.

  • SD-WAN und UCaaS

    Viele CIOs migrieren ihre Geschäftsanwendungen und Infrastrukturen in die Cloud, einschließlich Echtzeit-Sprachanruf-, Videokonferenz- und Kollaborationsanwendungen. Sie setzen zunehmend Unified Communications als Service (UCaaS) ein, um Sprach-, Video- und Webkonferenzen über Cloud-basierte Software zu optimieren. Gartner prognostiziert, dass 90 Prozent der IT-Verantwortlichen bis 2021 keine neue Unified Communications (UC)-Infrastruktur mit gehosteten Räumlichkeiten kaufen werden. Der Trend geht hin zu in der Cloud gehostete UCaaS-Angebote hinsichtlich Features, Funktionen, Analysen und Dashboards.

  • Sensible Daten nicht an US-Konzerne übergeben

    Aufgrund von Sicherheitsbedenken gegenüber US-Konzernen will die Bundesregierung aktiv werden und eine sog. "Europa-Cloud" aufbauen. Wirtschaftsminister Peter Altmaier und Innenminister Horst Seehofer treiben die Pläne voran. Dass man gegen US-Konzerne Sicherheitsbedenken haben sollte, ist in der IT-Branche seit jeher bekannt. Wir haben die Verschlüsselungssoftware "Boxcryptor" bereits vor acht Jahren in dem Bewusstsein entwickelt, dass man sensible Daten nicht einfach so US-Konzernen übergeben kann. Das Hauptargument für eine Europäische Cloud ist, dass keine Daten in andere Länder abfließen sollen. Stattdessen sollen sie in Europa bleiben wo sie vermeintlich besser geschützt sind. Doch das ist zu kurz gedacht. In der Folge hätte statt einem US-Anbieter ein Europäischer Anbieter Zugriff auf die Daten und damit ist niemandem geholfen. Der Grund für Ende-zu-Ende-Verschlüsselung ist genau der, dass wirklich niemand - außer der Eigentümer selbst - Zugriff auf die Daten hat - egal wo sie gespeichert sind. Anders gesagt: Man sollte sensible Daten auch nicht unverschlüsselt in irgendeiner schwäbischen, bayrischen, deutschen oder europäischen Cloud ablegen.

  • Sorgen rund um Cloud Act unbegründet

    Die Deutsche Bundesregierung will den Aufbau deutscher und europäischer Cloud-Plattformen forcieren. Dazu äußert sich Ralf Sürken, CEO Europe des IT-Dienstleisters Syntax: "Es ist begrüßenswert, dass die Bundesregierung das fehlende Angebot von europäischen Cloud Computing-Plattformen erkannt hat und etwas dagegen unternehmen möchte. Ich bin überzeugt davon, dass ein großer europäischer oder deutscher Public-Cloud-Anbieter auch in den USA Kredit genießen würde - aufgrund der anerkannt hohen Datenschutzrichtlinien in der EU. Außerdem belebt Konkurrenz das Geschäft.

  • ADC-Markt im grundlegenden Umbruch

    Der ADC-Markt ist heute eine Industrie, die 4-Milliarden US-Dollar pro Jahr umsetzt und bis 2021 soll der Markt sogar auf über 6 Milliarden US-Dollar anwachsen. Dieses Wachstum überrascht wenig, da sich Anwendungen bei vielen Unternehmen zu einem der wichtigsten Aspekte ihres Geschäfts entwickelt haben. Entsprechend sind Application Delivery Controller eine sehr wichtige Komponente, um die wachsende Zahl von Anwendungen in Rechenzentren und in Clouds sicher und hochverfügbar zu halten. Public- und Multi-Cloud-Umgebungen sowie containerbasierten Architekturen haben jedoch dazu geführt, dass Unternehmen dringend grundlegende architektonische Neuerungen für Load Balancer benötigen. All dies fördert Innovation und Wettbewerb - und zwingt traditionelle Anbieter nachzuziehen - oder unterzugehen."

  • Coopetition: Ein Hoch auf die Konkurrenz

    Oracle, IBM, Salesforce, Google, SAP - diese Liste ließe sich noch endlos verlängern. Kaum ein IT-Unternehmen kommt heute noch ohne Partnerschaften aus. Freudig werden neue Zusammenarbeiten angekündigt, Partnerprogramme ausgebaut und Netzwerke erweitert. Was dahinter steckt, weiß Peter Wüst, Senior Director Cloud Infrastructure and Cloud Data Services EMEA bei NetApp.

  • Digitalisierung: Mega-Trend der Gegenwart

    Was sagt die deutsche Digitalwirtschaft zur Gründung des Digitalrates? Dr. Jörg Haas ist digitaler Vordenker und Gründer der Bonner Scopevisio AG. Als Vorstand der Bonner Hightech-Holding HW Partners AG und als Mitinitiator des Digital Hub Region Bonn will er zudem die Region NRW zu einem innovativen Digitalstandort und -netzwerk ausbauen. "Digitalisierung ist der Mega-Trend der Gegenwart. Digitalisierung ist nicht regional oder national - Digitalisierung ist vernetzt und global. Werden wirklich Staaten künftig die Erde beherrschen, oder werden künftig gesellschaftliche Werte und Normen vielmehr in digitalen Communities begründet?"