- Anzeige -


Sie sind hier: Startseite » Fachartikel » Hintergrund

Datenqualitäts-Services aus der Cloud


Data Quality aus der Cloud: Den Anwendernutzen im Fokus
Auch Data Quality-Services werden als On-Demand-Lösung aus der Cloud angeboten, entweder als Software-as-a-Service oder als geschickt implementierter Web-Service, der unauffällig im Hintergrund arbeitet


Autor Holger Stelz:
Autor Holger Stelz: Die Kombination von installierter Software und Data-Quality-on-Demand schließt eine besondere Bedarfslücke, Bild: Uniserv

Von Holger Stelz, Leiter Marketing & Geschäftsentwicklung, Uniserv GmbH

(27.08.12) - Wir schreiben E-Mails, verwalten Kontakte, tummeln uns auf Social-Media-Plattformen: Dabei produzieren wir Unmengen von Daten. Jeden Tag. Um die Kontrolle über diese Datenflut zu behalten und möglichst viel Nutzen aus den darin enthaltenen Informationen zu ziehen, ist ein effektives Datenqualitäts-Management unabdingbar. Bis vor kurzem stand dies Unternehmen nur als Software-Lösung zur Verfügung. Datenqualitäts-Lösungen nach dem klassischen Lizenzmodell sind aber für viele Anforderungen oft entweder zu mächtig – und werden dennoch angeschafft und implementiert. Oder sie sind zu kostspielig – und Unternehmen verzichten auf sinnvolle Services. Die Alternative: Datenqualitäts-Services aus der Cloud.

Der zentrale Mehrwert der Cloud
Applikationen aus der Cloud bieten im Idealfall genau das, was man braucht – nicht mehr, aber auch nicht weniger. Meist schnell, unkompliziert und kostengünstig. Aber neben den rein finanziellen Überlegungen spielen in vielen Anforderungsszenarien vor allem Effizienzsteigerung und Nutzerorientierung eine wichtige Rolle. Die stärkere Fokussierung auf den Nutzer und den Nutzwert bilden den Kern des Cloud-Ansatzes. Selbstverständlich geht es dabei auch um die dahinterstehende Technik, die intuitive Steuerung, die Architektur der Cloud-Dienste, die Leistung und Vernetzung der Server sowie um Datensicherheit und Risikominimierung. Aber erst die Möglichkeit, eine Anwendung wirklich on Demand zu nutzen und dabei ausschließlich die tatsächlich benötigten Ressourcen zu bezahlen, macht die Cloud so attraktiv. In vielen Bereichen ist sie darum zu einer echten Alternative zur traditionellen On-Premise-Lösung geworden.

Data Quality aus der Cloud
Auch Data Quality Services werden als On-Demand-Lösung aus der Cloud angeboten, entweder als Software-as-a-Service (SaaS) oder als geschickt implementierter Web-Service, der unauffällig im Hintergrund arbeitet. Der Nutzen dabei? Sie bieten maßgeschneiderte Lösungen für die branchenspezifischen und individuellen Bedürfnisse von Unternehmen – im besten Fall schneidert sich das Unternehmen seine Lösung sogar selbst auf den Leib.

On Demand: Data Quality auf Abruf
Ein Unternehmen übernimmt einen Mitbewerber, mehrere Tochterunternehmen werden fusioniert oder zwei vollkommen selbstständige Niederlassungen einer Firma werden im Zuge von Konsolidierungsmaßnahmen zusammengelegt. Solche M&A-Prozesse erfordern meist die Integration der Daten aller Beteiligten. Sollte es sich um Unternehmen handeln, die einen recht überschaubaren und stabilen Kunden- und Lieferantenstamm besitzen, kann man davon ausgehen, dass sie nicht über Datenqualitäts-Lösungen verfügen. Durch die veränderte Unternehmensstruktur wird schnell deutlich, dass viele Kunden- und Lieferantendaten mehrfach im System vorkommen, vermutlich auch noch in unterschiedlichen Formaten und mit unterschiedlichen Werten. Spätestens jetzt besteht also ein Bedarf an Datenbereinigung und -konsolidierung. Das Unternehmen plant aber, aufgrund der Kunden- und Lieferantenstruktur, nach der einmaligen Optimierung keine weiteren Data-Quality-Lösungen einzusetzen. Die Lizenzierung und Installation einer Data-Quality-Lösung scheidet damit als zu kostspielig und aufwendig aus. Bis dato hat man dieses Problem meist folgendermaßen gelöst: Ein oder mehrere Mitarbeiter werden damit beauftragt, die Daten manuell auf den neuesten Stand zu bringen.

Die smarte Alternative: Innovative Cloud Computing-Technologien. Die entsprechenden Daten werden einfach, bequem und vor allem sicher via Webbrowser auf das Portal eines Data-Quality-Dienstleisters geladen und von diesem im eigenen Rechenzentrum bereinigt und konsolidiert. Zudem lassen sich die Adressen der Kunden noch gegen aktuelle Umzugsdaten und Sterbefälle abgleichen oder um Telefonnummern und Geo-Daten ergänzen.

Neben dieser einmaligen Erfassung und Optimierung von Daten – vergleichbar der Stapelverarbeitung bei klassischen On-Premise-Lösungen – sind auch interaktive Ad-hoc-Bereinigungen von einzelnen Adressdaten mit Cloud Services möglich und sinnvoll: beispielsweise für eine weniger umfangreiche, dafür umso hochwertigere Mailing-Aktion oder bei häufigeren Änderungen innerhalb der Kundenstammdaten und der Notwendigkeit in Echtzeit auf korrekte Adressen zurückgreifen zu können. So lange hier die zu optimierenden Daten nicht ein bestimmtes Volumen überschreiten, sind lokale Data-Quality-Softwareinstallationen nicht wirklich sinnvoll. Im Gegenteil – die verwendeten Ressourcen stehen in keinerlei Verhältnis zum erzielten Nutzen. Auch dann nicht, wenn immer häufiger einzelne Daten optimiert werden sollen. Hier bietet sich viel mehr die feste Integration von Data Quality-Web-Services in die bestehenden Datenmanagement-Systeme an. So können Adressdaten auch ohne Webbrowser aber ebenfalls über die Cloud jederzeit nach Bedarf optimiert werden. Wichtig ist hier das Know-how des Anbieters, der für die entsprechenden Schnittstellen sorgen muss.

Webbasierte Datenqualitätsangebote eignen sich damit sowohl für die Ad-hoc-Optimierung von einzelnen Datensätzen – über einen Webbrowser oder als interaktiver Web-Service im Hintergrund – als auch für die periodische Bereinigung größerer Datenvolumen. Der Workload sollte dabei bestimmte vom Nutzer individuell festzulegende Grenzen nicht überschreitet.

Das Hybrid-Modell: Intelligente Verknüpfung
Die Integration von Web-Services in Business-Anwendungen über Konnektoren – Schnittstellen – bietet dabei die Voraussetzung für ein weiteres Nutzungsmodell im Bereich Cloud Computing: das Hybrid-Modell.

Die Kombination von installierter Software und Data-Quality-on-Demand schließt eine besondere Bedarfslücke. Volumenaufgaben übernimmt die installierte Software, bei besonderen Aufgabenstellungen oder Ad-hoc-Bereinigungen ist die Cloud-Lösung gefragt. Das ist beispielsweise der Fall, wenn eine Data-Quality-Lösung bereits für optimale Adressdaten bei einem Onlinehändler mit hauptsächlich deutschem Kundenstamm sorgt, dieser aber vermehrt Kunden aus den Nachbarländern gewinnt. Für lediglich einige hundert internationale Kundendaten die bestehende Lösung um die entsprechenden lizenzpflichtigen Referenzadressdatenbanken zu ergänzen, ist nach dem zu erwartenden Umsatz und Gewinn vermutlich nicht wirtschaftlich. Eine intelligente und flexible Alternative: Die Ergänzung um On-Demand-Funktionen, die die gleiche Aufgabe übernehmen, aber nur nach dem tastsächlichen Bedarf abrechnen. Vergleichbares ist auch denkbar, wenn es um die Anreicherung von Daten geht. Und je nach Bedarf des Kunden sollten sich dabei alle klassischen Installationslösungen mit beiden On-Demand-Ansätzen – Stapelverarbeitung und Echtzeit-Services – kombinieren lassen.

Aus der Nutzerperspektive
Zwar sind Datenqualitäts-Angebote aus der Cloud – wie andere Cloud-Dienste auch – meist nicht so umfänglich wie ihre traditionellen Pendants und auch deutlich standardisierter, aber der höhere Grad an Standardisierung hat gegenüber lokal installierten Software-Produkten den entscheidenden Vorteil: Die Cloud-Services sind ohne Schulungsaufwand vom Anwender direkt nutzbar. Die relevanten Funktionen zur Datenbereinigung, zum Datenabgleich und zur Datenanreicherung bieten sie ebenso wie die On-Premise-Lösungen.

Die Nutzung der Cloud-Services ist von jedem Arbeitsplatz aus möglich, der über einen Webzugang verfügt. Die stets hohe Verfügbarkeit und der minimale Integrationsaufwand werden noch durch einfache Bedienbarkeit ergänzt. Data Quality Cloud Services sind damit eine schlanke und intelligente Lösung für eine Vielzahl von Datenqualitätsinitiativen. Eine Hybrid-Lösung stellt dabei in vielen Fällen das Optimum dar, da sie die Wirtschaftlichkeit von On-Premise-Installationen erhöht und die meisten Szenarien abdecken kann. Zudem ist bei Bestandskunden der Wechsel von lokalen zu Cloud-Services ohne jedwede Unterbrechung von Arbeitsprozessen realisierbar.

Auf eine einfache Bedienbarkeit und die erforderliche Usability sollten Anwender besonders achten. Das beginnt bereits mit der Oberfläche der Browseranwendung, die den modernen Web-2.0-Anforderungen genügen muss und deren Funktionen sich intuitiv erschließen sollten. Allein dadurch lässt sich Aufwand einsparen, denn Einarbeitungszeiten werden wesentlich reduziert. Außerdem ist es wichtig, dass sich alle Einzelanwendungen aus der Browseranwendung heraus starten und managen lassen, dass zu allen Prozessen eine begleitende Step-by-Step-Anleitung zu finden ist und dass alle laufenden Prozesse sowie bisherige Kosten und eventuell gebuchte Kontingente sofort im Blick sind. Dann sind die eigenen Mitarbeiter in der Lage, eine Cloud Computing-Lösung wirklich schnell und produktiv zu nutzen.

Allgemein gilt: Von Data-Quality-on-Demand lässt sich immer dann besonders profitieren, wenn sich eine Lizenz nicht oder besser gesagt noch nicht rechnet. Die transaktionsgebundenen Kostenmodelle bieten dabei eine große Kalkulationssicherheit. Bezahlt wird nur für tatsächlich genutzte Leistung. Damit rentiert sich die Optimierung der Datenqualität für jede Datenmenge und jede Aufgabenstellung.

Sicherheit
Ein wichtiger letzter Punkt: Da bei DQ-Anwendungen aus der Cloud personenbezogene Daten verarbeitet werden, müssen die Anforderungen an die Sicherheit naturgemäß sehr hoch sein. Dem sollte die Architektur des Portals bzw. der Web-Service-Schnittstellen durch eine SSL-verschlüsselte HTTPS-Verbindung Rechnung tragen. Zum anderen sind die Verarbeitungsdaten durch ein mehrstufiges Firewall-basiertes Sicherheitssystem gegen unberechtigten Zugriff zu schützten. Schließlich sollte auch das Rechenzentrum selbst, in dem die Cloud-Services gehostet werden, für bestimmte Sicherheitsstandards zertifiziert sein. (Uniserv: ra)


Uniserv: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Appliances: Engpass im Rechenzentrum?

    Es scheint ein Widerspruch zu sein: Obwohl die meisten Unternehmen viele ihrer Anwendungen in die Cloud migrieren, erfreut sich das klassische Rechenzentrum nach wie vor großer Beliebtheit. Seit nun mehr als einem Jahrzehnt virtualisieren Unternehmen ihre Rechenzentren und führen Cloud-Technologien ein. Und sagten einige Experten vor gut zehn Jahren voraus, dass das Rechenzentrum der Zukunft vollständig in der Cloud betrieben würde, sehen wir heute, dass dies nicht eingetreten ist. Stattdessen führten Unternehmen Hybrid- und Multi-Cloud-Umgebungen ein, die ihnen die Wahl geben, ihren Anwendungen und Daten das ideale Zuhause zu geben.

  • Cloud-gestützte Sicherheitsmechanismen

    Cloud Computing-Lösungen sind auch im IT-Security-Bereich zunehmend verbreitet. Viele Anbieter verlagern Sicherheitsmechanismen und andere Dienste in ihre Rechenzentren, anstatt diese auf klassische Weise bei den Kunden vor Ort (On-Premises) zu betreiben. Doch ist die Anti-Malware-Lösung aus der Cloud tatsächlich die geeignete Variante für jeden Anwendungsfall? Und wo genau liegen eigentlich die möglichen Vor- und Nachteile des Virenschutzes aus der Wolke? Die IT-Sicherheits-Experten von Tabidus Technology nennen drei gute Gründe für die Cloud. Im Gegenzug weisen sie aber auch auf drei problematische Aspekte hin, die Unternehmen und IT-Verantwortliche unbedingt im Auge behalten sollten.

  • Cloud Computing ist Mainstream in der IT

    "Die Wolke" ist in der Unternehmens-IT deutscher Unternehmen angekommen. Auch hierzulande profitieren Firmen jeder Größe von niedrigeren Kosten bei größerer Skalierbarkeit und Zuverlässigkeit. Die Verantwortung für die Sicherheit ihrer Daten sollten Unternehmen jedoch nicht in die Hände von Cloud-Providern legen. Der Datenverschlüsselung und der Kontrolle über die Verschlüsselungs-Keys kommt in heterogenen IT-Landschaften besondere Bedeutung zu. Denn im Ernstfall ist Verschlüsselung die letzte Feste der IT-Security.

  • Vorteile von Security-as-a-Service

    Security-as-a-Service wird bei Großunternehmen und KMU immer beliebter: Die sich ständig erweiternde Bedrohungslandschaft und der Mangel an Fachkräften führt zur zunehmenden Akzeptanz von IT-Sicherheit als Dienstleistung. Denn der Arbeitsmarkt bleibt angespannt, in Deutschland gibt es laut Bitkom 82.000 offene Stellen für IT-Spezialisten, und die Nachfrage nach Sicherheitsexperten steigt branchenübergreifend. Für viele Unternehmen ist deshalb eine Auslagerung von Management, Implementierung und Überwachung des komplexen Security-Bereichs eine sinnvolle und kosteneffiziente Investition, um ihre internen IT-Ressourcen zu entlasten und zugleich ihr Sicherheitsprofil zu schärfen.

  • Einblick in jede Cloud-Instanz haben

    Die Vielzahl an Cloud Computing-Services eröffnet zahlreiche Möglichkeiten, einzelne Geschäftsprozesse zu optimieren. Die richtige Cloudstrategie hat sich damit längst zu einem Wettbewerbskriterium entwickelt. Viele Unternehmen setzen auf eine Multicloud-Strategie, um bei eventuellen Ausfällen den Geschäftsbetrieb aufrechterhalten zu können und nicht von nur einem Anbieter abhängig zu sein. Die Nutzung von Cloudservices sollte umfassend geplant werden. Bei lediglich punktuellen Migrationen einzelner Prozesse besteht das Risiko, dass das Optimierungspotential nicht vollständig genutzt wird. Doch neben dem Faktor Performance hat auch die Datensicherheit mittlerweile geschäftskritische Relevanz erreicht. Regulatorische Standards sollten daher frühzeitig in das Multicloud-Konzept einfließen, die Auswahl der Anbieter mitbestimmen und durch geeignete Sicherheitsmaßnahmen flankiert werden.

  • Cloud-Services für jedermann

    Datenschutz war 2018 ein zentrales Thema in allen Medien. Die EU-Datenschutzgrundverordnung (DSGVO) hat viele Unternehmen vor enorme Herausforderungen gestellt, und diese sind noch lange nicht gemeistert. Zahlreiche Firmen hinken bei der Umsetzung weit hinterher, dabei kommen 2019 bereits neue Richtlinien auf sie zu. Welche weiteren Entwicklungen können wir nächstes Jahr in Bezug auf den Umgang mit Daten erwarten?

  • Das Glück kurzer Reaktionszeiten

    Unternehmen müssen heute kundenorientiert arbeiten und in der Lage sein, Innovationen schnell auf den Markt zu bringen. Dabei müssen Applikationen hohe Ansprüche an Verfügbarkeit und Performance erfüllen. Ausfallzeiten kann sich niemand leisten, denn die Kundenerwartungen sind hoch. All das erfordert eine flexible, skalierbare IT-Umgebung. Um den unterschiedlichen, wechselnden Anforderungen gerecht zu werden, geht der Trend dahin, mehrere Clouds zu kombinieren. Ob eine Hybrid Cloud aus Public Cloud und Private Cloud oder gar verschiedene Public Clouds - laut einer aktuellen Studie von 451 Research in 14 europäischen Ländern setzen bereits 84 Prozent eine Kombination aus verschiedenen Cloud Computing-Umgebungen ein.

  • Mit Cloud ERP ins internationale Geschäft

    Immer mehr auch mittelständische Unternehmen eröffnen oder besitzen internationale Niederlassungen. Doch unterschiedliche Gesetze, Buchhaltungsregeln und Sprachen erschweren die Organisation. Die Firmen können deshalb Cloud-ERP-Lösungen einsetzen, die sowohl konzern- als auch landesspezifische Besonderheiten sowie Compliance-Richtlinien berücksichtigen. Auch bei M&A-Projekten ist Cloud-ERP nützlich und es hilft, burning platforms zu vermeiden.

  • AI als Kollege im Service Desk

    Alle reden von Artificial Intelligence, um AI gibt es einen regelrechten Hype: Die Erwartungen sind enorm, die Ziele oft vage, konkrete Lösungen noch selten. In diesem Beitrag wird erläutert, welche Auswirkungen AI auf das IT Service Management (ITSM) in Unternehmen haben wird - und wo die Grenzen liegen. In Gartners "Hype Cycle for Emerging Technologies" vom August 2017 lag AI - vertreten durch Deep Learning und Machine Learning (ML) - ganz an der Spitze der Hype-Kurve. Wie es weitergeht, ist klar: bergab. Überzogene Hoffnungen werden enttäuscht, bevor die neue Technologie dann letztlich Einzug in den Alltag findet. Bei Deep Learning und ML wird dies laut Gartner zwei bis fünf Jahre dauern, bei AI-basierten Virtual Assistants fünf bis zehn. Aber AI wird kommen.

  • Cloud: Datensicherheit & Angriffsszenarien

    "Ihr Konto wurde gehackt!" Nachrichten mit diesen oder ähnlichen Betreffzeilen entlocken den meisten Nutzern nur noch ein müdes Lächeln. Derartige E-Mails von breit angelegten Phishing-Kampagnen, die meist schon durch ein äußerst zweifelhaftes Design auffallen, werden in der Regel unmittelbar aussortiert. Eine weitaus höhere Erfolgsquote verspricht jedoch die Kombination von Phishing mit Cloud Computing-Anwendungen. Die Aussicht, mit nur einer erfolgreichen E-Mail eine Vielzahl verwertbarer Daten zu erbeuten, ist für Cyberkriminelle Motivation genug, die Angriffstechniken weiter zu verfeinern und zielgerichteter vorzugehen. Für Unternehmen ein Grund, sich im Rahmen ihrer Datensicherheitsstrategie näher mit diesem Angriffsszenario auseinanderzusetzen.