Sie sind hier: Startseite » Markt » Tipps und Hinweise

Datenintegration zwischen Cloud & On-Premise-Daten


Drei Fehler, die man bei der Modernisierung von Business-Intelligence-Lösungen vermeiden sollte
Die Cloud ist der große Treiber hinter einer neuen Generation von Business-Intelligence-Anwendungen


Business Intelligence hat sich von großen Software-Monolithen, welche in der Vergangenheit ausschließlich von der IT kontrolliert wurden, zu einem agileren Tool-Set gewandelt. Eine große Rolle spielt dabei auch Nutzerfreundlichkeit durch ansprechende Visualisierung. Nicht umsonst sind Angebote wie Tableau, Qlik und andere am Markt sehr erfolgreich. Sollen solche Werkzeuge nachhaltig im Unternehmen etabliert werden, müssen Verantwortliche einiges beachten. Otto Neuer, Regional VP Sales bei Denodo, zeigt drei häufige Fehler und wie sich diese vermeiden lassen.

1. Fehlende Strategie für eine vollständige Integration heterogener Datenquellen
Unternehmen schöpfen ihre Daten heutzutage aus einer Vielzahl unterschiedlicher Quellen, um Informationen über neue Märkte, Kundenpräferenzen und vieles mehr zu sammeln. Moderne BI-Lösungen (Business Intelligence) kommen dabei mit unterschiedlichen Datenquellen zurecht, von traditionellen Datenbanken bis zu unstrukturierten Quellen.

Herkömmliche ETL-Prozesse stoßen dagegen bei der Menge und der Komplexität heutiger Daten schnell an ihre Grenzen. Das gleiche gilt auch für klassische Data Warehouses. Die Abhängigkeit von 20 Jahre alten, auf ETL-Prozessen basierenden Architekturen als Standarddatenintegration kann so die Möglichkeiten moderner BI-Lösungen einschränken. Solche veralteten Prozesse sind zeit- sowie ressourcenintensiv und beschränken Datenanbindung, -Verarbeitung und Bereitstellung. Heutige Anwendungsfälle wie Live Dashboards oder Mobile Apps lassen sich damit schwer umsetzen.

Die Nutzung von Data-Adaptern oder Connectors hat ebenfalls Schwächen. Die Punkt-zu-Punkt-Verbindungen, die bei dieser Methode zwischen einer Quelle und einem oder mehreren Zielen hergestellt wird, sind nur sehr aufwändig zu verwalten. Die dadurch entstehende gesteigerte Komplexität sorgt für eine höhere Fehleranfälligkeit. Beispielsweise kann es vorkommen, dass nicht jedes Reporting Tool Zugriff auf alle notwendigen Ressourcen hat. Das bedeutet, dass Anwender mehrere Tools nutzen müssen, die oft untereinander inkonsistente Ergebnisse liefern. Stattdessen sollten Unternehmen einen proaktiven automatisierten Ansatz verfolgen, um Integritätsprobleme schnell aufzudecken.

Um eine moderne BI-Plattform zu unterstützen, benötigen Unternehmen eine zeitgemäße Datenarchitektur, welche die Konnektivität mit einer Vielzahl von Datenquellen – strukturiert und unstrukturiert, relational und nicht-relational, On-Premise und in der Cloud – ermöglicht. Moderne Datenintegrationsansätze wie Datenvirtualisierung schaffen als Middleware eine Abstraktionsschicht, die den Zugriff auf alle Datenbestände unabhängig von Standort und Format erleichtert.

2. Keine Echtzeitanalysen
Das exponentielle Datenwachstum der letzten Jahre hat neben dem schieren Volumen an Information zu weiteren Herausforderungen geführt. Eine davon ist die Geschwindigkeit, mit der Daten heute entstehen. Zudem kommt ein Großteil des neuen Datenaufkommens aus unstrukturierten Quellen, dabei handelt es sich beispielsweise um Sensordaten, Bilder, Chats, Finanztransaktionen, etc. Die immer schnellere Frequenz, mit der Daten entstehen macht heute moderne und agile Methoden der Datenintegration notwendig.

Allerdings sieht die Realität in den meisten Unternehmen so aus, dass sie über in die Jahre gekommene Infrastrukturen verfügen, welche kein umfassendes Reporting in Echtzeit zulassen. Daher müssen alle Daten zunächst repliziert und in einem zentralen Repository aggregiert werden, bevor Analysten und Data Scientists diese nutzen können. Dieser Prozess behindert nicht nur den Echtzeitzugriff, sondern kann auch Duplikationen, Kontextverlust und erhöhte Latenz hervorrufen. Das größte Problem bei diesem Prozess: Die replizierten Daten sind selten völlig synchron mit dem Original und weisen eine gewisse Zeitverzögerung auf.

Wird stattdessen Datenvirtualisierung eingesetzt, verbleiben die Daten in ihrem ursprünglichen Kontext. Über einen Access Layer sind sie dennoch unmittelbar zugänglich. Die Datenquellen werden von den Anwendungen somit gewissermaßen abstrahiert. Zudem bietet Datenvirtualisierung einen ganzheitlichen Überblick über alle integrierten Daten, ohne dass Replikationen notwendig sind.

3. Mangelnde Integrationsfähigkeit von (hybriden) Multi-Cloud Umgebungen
Die Cloud ist der große Treiber hinter einer neuen Generation von Business-Intelligence-Anwendungen. Dennoch verfügen viele Unternehmen immer noch nicht über eine optimale Datenintegration zwischen Cloud und On-Premise-Daten. Ebenso kommen sie mit Deployments über mehrere Clouds hinweg schlecht zurecht. Cloud-Strategien für Business Intelligence sind oft auf ein einzelnes Deployment fokussiert und daher limitiert. Wenn Unternehmen ihre BI Deployments nicht von einem zentralen Punkt aus verwalten können, führt das zu einem ineffizienten Gesamtsystem. Damit haben Organisationen keine Möglichkeit, ein effektives Workload Balancing zu implementieren. Das heißt für die Verantwortlichen, sie müssen viel Zeit damit zubringen, den Daten Herr zu werden, anstatt sich auf ihr eigentliches Geschäft zu konzentrieren.

Erfolgreiche Datenanalyse für die Cloud benötigt heute eine agile Echtzeitintegration, die eine breite Varianz unterschiedlicher Datenquellen abdeckt. Für diese Anforderungen ist Datenvirtualisierung die ideale Lösung. Die Technologie macht Dateninfrastrukturen transparent und ermöglicht das Datenmanagement in hybriden Architekturen, welches den Zugriff sowohl von On-Premise-Systemen als auch von der Cloud zulässt. Gleichzeitig ist es möglich, Workflows zu automatisieren. Moderne Datenvirtualisierungslösungen nutzen Machine Learning, um repetitive Aufgaben zu automatisieren und Empfehlungen für das weitere Vorgehen auf der Grundlage von Nutzungsanalysen zu geben. (Denodo: ra)

eingetragen: 14.02.20
Newsletterlauf: 28.04.20

Denodo: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Lücken der SaaS-Plattformen schließen

    Die zunehmende Nutzung von Software-as-a-Service (SaaS)-Anwendungen wie Microsoft 365, Salesforce oder Google Workspace verändert die Anforderungen an das Datenmanagement in Unternehmen grundlegend. Während Cloud-Dienste zentrale Geschäftsprozesse unterstützen, sind standardmäßig bereitgestellte Datenaufbewahrungsfunktionen oft eingeschränkt und können die Einhaltung der Compliance gefährden. Arcserve hat jetzt zusammengefasst, worauf es bei der Sicherung der Daten führender SaaS-Anbieter ankommt.

  • Nicht mehr unterstützte Software managen

    Von Windows bis hin zu industriellen Produktionssystemen: Wie veraltete Software Unternehmen angreifbar macht und welche Strategien jetzt nötig sind Veraltete Software ist weit verbreitet - oft auch dort, wo man es nicht sofort vermuten würde. Beispiele für besonders langlebige Anwendungen sind das SABRE-Flugbuchungssystem oder die IRS-Systeme "Individual Master File" und "Business Master File" für Steuerdaten, die seit den frühen 1960er-Jahren im Einsatz sind. Während solche Anwendungen ihren Zweck bis heute erfüllen, existiert daneben eine Vielzahl alter Software, die längst zum Sicherheitsrisiko geworden ist.

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

  • Clever skalieren auf Basis bestehender Strukturen

    Da Generative AI zunehmend Teil unseres Alltags wird, befinden wir uns in einer KI-Phase, die sich durch außerordentliche Fähigkeiten und enormen Konsum auszeichnet. Was anfangs auf einer theoretischen Ebene stattgefunden hat, ist inzwischen messbar - und zwar bis zur kleinsten Einheit. Aktuelle Untersuchungen von Mistral AI und Google deuten darauf hin, dass die Folgen einer einzigen Interaktion vernachlässigbar sind: Bruchteile eines Watts, einige Tropfen Wasser und ein Kohlenstoffausstoß, der etwa dem entspricht, was beim Streamen eines Videos unter einer Minute verbraucht wird.

  • Von Cloud-First zu Cloud-Smart

    Die zunehmende Vernetzung von IT- und OT-Systemen bedeutet für die Fertigungsindustrie neue Sicherheitsrisiken. Ein moderner Cloud-Smart-Ansatz verbindet Innovation mit effektiven Sicherheitslösungen, um diesen Herausforderungen gerecht zu werden. Die industrielle Digitalisierung stellt die Fertigungsindustrie heute vor neue Herausforderungen - insbesondere in puncto Sicherheit.

  • Technik statt Vertrauen

    Die andauernden Turbulenzen in den USA seit Amtsantritt von Donald Trump, die konsequente Kürzung von Mitteln für Datenschutz und die Kontrolle staatlicher Überwachungsprogramme verdeutlichen: Wer als Behörde oder Institution höchste Datensicherheit garantieren muss, kann nicht auf US-amerikanische Unternehmen oder deren europäische Töchter setzen.

  • Risiko von SaaS-zu-SaaS-Integrationen

    Ein SaaS-Sicherheitsalbtraum für IT-Manager in aller Welt wurde kürzlich wahr: Hacker nutzten legitime OAuth-Tokens aus der Drift-Chatbot-Integration von Salesloft mit Salesforce, um unbemerkt Kundendaten von der beliebten CRM-Plattform zu exfiltrieren. Der ausgeklügelte Angriff deckt einen kritischen toten Winkel auf, von dem die meisten Sicherheits-Teams nicht einmal wissen, dass sie von ihm betroffen sind.

  • Kostenfallen erkennen und vermeiden

    Remote Work, Cloud Computing und mobile Endgeräte haben die Arbeitswelt grundlegend verändert. Mitarbeiter erwarten heute, von überall aus auf ihre Anwendungen und Daten zugreifen zu können. Virtuelle Desktop-Lösungen machen diese Flexibilität möglich, indem sie Desktop-Umgebungen und Anwendungen über das Netzwerk eines Unternehmens bereitstellen. Doch der Markt für solche Lösungen ist komplex und vielfältig. IT-Entscheider stehen vor der Herausforderung, aus dem Angebot die passende Lösung zu identifizieren, die sowohl technische Anforderungen als auch wirtschaftliche Ziele erfüllt.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen