- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Umsetzung von Big Data-Projekten


Sechs Gründe, weshalb Unternehmen an Big Data-Projekten scheitern können
Annäherung an das Thema Big Data minimalistisch denken und zunächst möglichst kleine Projekte realisieren

(04.09.14) - Viele Unternehmen sind zu zögerlich, wenn es um die Implementierung von Big Data-Lösungen geht. Eine schrittweise Einführung, ausgehend von einem kleinen Lösungsansatz, kann hierbei sehr hilfreich sein, um die üblichen Probleme bei der Umsetzung von Big Data-Projekten frühzeitig zu erkennen und erfolgreich zu umschiffen zu können.

Das Thema Big Data ist in aller Munde und viele Unternehmen sind fasziniert von dem Gedanken, möglichst vollumfängliche Antworten auf bestehende unternehmerische Fragen, aus allen zur Verfügung stehenden Daten, herauszufiltern.

Doch zwischen andenken und umsetzen klafft eine gewaltige Lücke, wie eine Studie des Forschungsinstituts Gartner im Jahr 2013 ergab. Demzufolge sind 92 Prozent aller Unternehmen in Sachen Big-Data unentschlossen oder befinden sich noch in einer Planungsphase zur späteren Einführung. Von den restlichen Unternehmen, die bereits damit begonnen haben Big Data aktiv im Unternehmen zu implementieren, scheitern die meisten größtenteils. Die Gründe für ein Scheitern sind hierbei oftmals identisch.

Der Schlüssel für die erfolgreiche Umsetzung eines Big Data-Projekts liegt in der schrittweisen Umsetzung des Projekts und ist auch geprägt vom Willen der jeweiligen Mitarbeiter, die mit der Umsetzung betraut sind, denn diese können nur durch frühzeitiges scheitern effektiv hinzulernen. Aus diesem Grunde ist es erforderlich, bei der Annäherung an das Thema Big Data minimalistisch zu denken und zunächst möglichst kleine Projekte zu realisieren, um Erfahrungswerte sammeln zu können.

Big Data und der Herdentrieb
Big Data boomt. Gemäß des Forschungsinstituts Gartner haben bereits 64 Prozent aller im Jahr 2013 befragten Unternehmen angegeben, bereits eine Big Data Investition in Systeme durchgeführt zu haben oder diese zu planen. Dies ist eine Steigerung von 6 Prozent im Vergleich zum Jahr 2012. Immer mehr Unternehmen sind somit bestrebt möglichst umfangreiche Erkenntnisse aus ihren Datensammlungen zu gewinnen. Sei es zur besseren Kundenbindung, der Analyse von Finanz- und IT-Risiken oder zur Analyse von Log-Protokollen.

Von diesen 64 Prozent haben 30 Prozent der Befragten bereits schon einmal in eine Big Data-Technologie investiert und 19 Prozent planten, dies innerhalb eines Jahres zu tun, weitere 15 Prozent gaben an dieses innerhalb von zwei Jahren zu tun. Weniger als 8 Prozent der 720 durch Gartner befragten Unternehmen gaben hierbei an, bereits erfolgreich eine Big Data-Lösung im Einsatz zu haben.

Die Gründe für ein Scheitern sind hierbei oftmals auf ein gewisses Maß an Naivität zurückzuführen, denn oftmals wissen viele Unternehmen nicht, welche und wie sie eine Big Data-Lösung produktiv implementieren sollen. Denn für eine erfolgreiche Datenanalyse benötigt man auch entsprechendes Personal und Infrastruktur.

Kuert Datenrettung Deutschland nennt sechs Gründe, die ein Unternehmen bei Big-Data Projekten scheitern lassen:

1. Widerstand im Management
Unabhängig davon was Daten uns mitteilen können, fand die Fortune Knowledge Group heraus, das 62 Prozent aller Geschäftsführer sich bei Ihren Geschäftsentscheidungen mehr auf Ihre Erfahrung, als auf die Analyse von Daten zu berufen.

Auswahl des falschen Verwendungszwecks - Entweder starten Unternehmen bei der Einführung von Big Data mit einem viel zu großen und überambitionierten Projekt, oder sie versuchen ihre Big Data Probleme durch traditionelle und vorherrschende Daten-Technologie in den Griff zu bekommen, welche in der Folge mit den Anforderungen zur Analyse großer Datenströme komplett überfordert ist.

2. Große Datensilos
Hersteller von Big Data Applikationen sprechen sehr gern von "Daten-Seen" oder "Daten-Hubs", die Realität in vielen Unternehmen zeigt jedoch, das viele Unternehmen hier eher "Daten-Pfützen" installieren. Verbunden mit scharfen Abgrenzungen zwischen der "Marketing-Pfütze", der "Produktionsdaten-Pfütze", usw. Big Data ist jedoch wesentlich wertvoller für ein Unternehmen, wenn diese Barrieren eingerissen werden und die Daten so analysiert werden können, wie sie auch durchs Unternehmen fließen, im Besten Fall sogar bei der Big Data Analyse komplett zusammenfließen. Firmenpolitik und Unternehmensrichtlinien stehen diesem unterfangen oftmals konträr gegenüber. Die Einführung von Big Data Analyseprozessen sollte grundsätzlich in Zusammenarbeit mit dem jeweiligen Datenschutzbeauftragten des Unternehmens erarbeitet werden. Schon in der Planungsphase können somit praktische und unternehmenskonforme Lösungen erarbeitet werden.

3. Falsche Fragestellungen
Datenwissenschaft ist eine komplexe Mischung aus Branchenwissen, Mathematik, Statistik und Programmierkenntnissen. Exakt diese sind die Anforderungen deren einer Big Data-Lösung bedarf, um die Ergebnisse liefern zu können die sich das Unternehmen verspricht. Zu viele Unternehmen stellen Daten-Wissenschaftler und Analysten ein, bei denen es sich vielleicht um wahre Mathematik- und Programmiergenies handeln mag, welche jedoch jegliches Wissen zur elementarsten Komponente vermissen lassen: Branchenkenntnis.

4. Unvorhergesehene Big Data Probleme
Die Datenanalyse ist nur eine Komponente eines Big Data Projekts. In der Lage zu sein, auf Daten zuzugreifen und diese zu verarbeiten ist der kritische Teil des Ganzen, denn hier lauern Gefahren wie Netzwerküberlastung oder die unzureichende Ausbildung von Mitarbeitern.

Meinungsverschiedenheiten bei der Unternehmensstrategie - Big Data Projekte sind u.a. dann erfolgreich, wenn es sich hierbei nicht um vollkommen isolierte Projekte handelt, sondern Abteilungsübergreifend Einverständnis darüber herrscht, wie durch die Datenanalyse alle Abteilungen des Unternehmens direkt oder indirekt profitieren können. Probleme treten zumeist dann auf, wenn unterschiedliche Abteilungen unterschiedliche Prioritäten bei der Wertigkeit der einzelnen Projekte verfolgen, z.B. "Cloud Computing-Virtualisierung ist wichtiger als Big Data-Analyse, weil wir dadurch..."

5. Fehlende Qualifikation
Viele zu groß skalierte Big-Data Projekte schreiten nur sehr langsam voran oder scheitern komplett. Oftmals liegt dies darin begründet, dass die bei der Umsetzung beteiligten Personen nur über unzureichende Qualifikationen verfügen. Einer der Hauptgründe hierbei liegt in der Tatsache, dass die zu einem Big-Data Projekt involvierten Personen aus der eigenen IT-Abteilung des Unternehmens stammen.

6. Problemvermeidung
Manchmal wissen oder vermuten wir, dass die Erkenntnisse der Datenanalyse uns zu Aktionen verleiten können, die wir nicht realisieren möchten. Wie z.B. innerhalb der Pharmaindustrie, die keine Sentiment-Analysen durchführen möchte, um hierdurch Meldepflichten zu umgehen oder um Szenarien zu vermeiden, die mehr Ärger einbringen könnten, als das sie Nutzen stiften. Was sich wie ein roter Faden durch diese Liste zieht ist die Erkenntnis, dass je stärker man sich auf die Daten fokussiert, festzustellen ist, dass der Mensch hierbei im Wege steht. So sehr ein Unternehmen auch bestrebt sein dürfte, Unternehmensentscheidungen einzig und allein aufgrund von Kennziffern zu treffen, so werden die Entscheidungen im Big Data Prozess welche Daten, gesammelt und mit in die Analyse einbezogen werden oder welche Fragen durch die Analyse beantwortet werden sollen, im Endeffekt doch wiederum nur von Menschen getroffen.

Besser schrittweise Innovation
Weil so viele Unternehmen dem Start eines eigenen Big-Data Projekts unentschlossen gegenüberstehen, gepaart mit der Angst vor einem Scheitern des Projekts, ist es unerlässlich sich dem Thema Big Data in kleinen Schritten zu nähern. Hierzu eignen sich entweder kostengünstige Anbieter, die einem Unternehmen den Weg zur Analyse großer Daten ebnen können oder die Möglichkeit die eigenen Mitarbeiter in die Lage zu versetzen mit Kopien der eigenen Daten zu experimentieren.

Ein "Kleiner Start / Schnelles scheitern" Ansatz ist hierbei angeraten, auch hinsichtlich der Tatsache, dass ein Großteil der Big Data-Technologie auf Open Source beruht. Auch die Zuhilfenahme von unterschiedlichen Plattformen wie Cloud Computing-Diensten tragen dazu bei, nicht nur die Kosten zu senken, sondern eignen sich auch dazu, dass Trial & Error-Prinzip zu unterstützen.

"Beim Thema Big Data geht es in erster Linie darum die richtigen Fragen zu stellen, deswegen sind die eigenen Mitarbeiter mit Ihrer Branchenkenntnis und Erfahrung ein unverzichtbarer Bestandteil einer guten Big Data-Strategie. Doch selbst mit den umfangreichsten Branchenkenntnissen, werden Unternehmen nicht in der Lage sein, alle hierfür relevanten Daten im Unternehmen zu sammeln. Zudem werden sie daran scheitern von Beginn an die wichtigsten Fragen zu stellen. Diese Fehler sollten aus unternehmerischer Sicht erwartet und akzeptiert werden, denn sie sind ein klassischer Bestandteil hin zu einer unternehmensspezifischen Big Data-Analyse”, so Martin Eschenberg Marketingleiter bei Kuert.

Eine flexible und offene Daten-Infrastruktur im Rahmen des BDSG erlaubt den Mitarbeitern von Unternehmen sich kontinuierlich zu verbessern, solange bis die Bemühungen erste Früchte tragen. (Kuert Datenrettung Deutschland: ra)

Kuert Datenrettung: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Amateure haben die Szene übernommen

    Nach Angaben der Sicherheitsspezialisten von Radware haben Razzien, Verhaftungen und die Beschlagnahmung von Servern keine nennenswerten Auswirkungen auf das Wachstum illegaler Booter- und Stresser-Dienste. Solche Dienste, auch als DDoS-as-a-Service bezeichnet, werden von vielen Hackern angeboten, die auf diese Weise ihre bestehenden Botnets vermarkten, wenn sie diese nicht gerade selbst für eine Attacke einsetzen. Sie agieren wie ganz normale Unternehmen nach marktwirtschaftlichen Kriterien. Die Services werden statt wie früher im Darknet und auf sozialen Medien heute vor allem auf gängigen Internet-Suchmaschinen umfangreich beworben, und ein starker Wettbewerb sorgt für immer niedrigere Preise und senkt so die Eintrittsschwelle für Amateur-Hacker.

  • Auch in der SAP-Welt: Die Zukunft heißt Hybrid

    Zwei fundamentale Änderungen werden SAP-Anwender in den nächsten Jahren beschäftigen: zum einen die gerade erst verlängerte Frist für die Migration bisheriger Datenbanken zu SAP HANA und bestehender Applikationen auf SAP S/4HANA bis spätestens 2027, zum anderen die anstehenden Innovationsprojekte im Rahmen der Digitalen Transformation, etwa in Themenfeldern wie IoT, Data Analytics sowie KI und Machine Learning. Diese Veränderungen erfordern neue Architekturen und Plattformen anstatt bisher genutzter Silos. Die Lösung ist eine integrierte, hybride Multi-Cloud-Plattform auf beliebiger Infrastruktur. Peter Körner, Business Development Manager Open Hybrid Cloud SAP Solutions bei Red Hat, zeigt die Vorteile einer Open-Hybrid-Cloud-Strategie auf und erläutert die Bedeutung von APIs und Cloud-nativer Entwicklung in diesem Kontext.

  • Corona-Krise treibt Cloud-Nutzung voran

    Ob im Gesundheitssystem, in der Politik oder in der Wirtschaft - Die Corona-Krise hat in nahezu allen gesellschaftlichen Bereichen Mängel aufgedeckt und Handlungsbedarf offenbart. Dies trifft auch auf den Digitalisierungsstand deutscher Unternehmen zu. Durch die schnelle Umstellung auf Home Office und die Verlagerung von Service sowie Freizeitaktivitäten in den digitalen Raum ist der Bedarf nach Cloud-Lösungen so hoch wie nie. Was der Schlüssel für eine erfolgreiche Migration ist und welchen konkreten Geschäftsnutzen Unternehmen aus einer Verlagerung ihrer Services in die Cloud ziehen können, erklärt Klaus Kurz, Director Solutions Consulting bei New Relic.

  • Fünf Trends, die Edge vorantreiben

    Das Bild der primitiven Edge, die bloß Daten weiterleitet, ist überholt. Denn Edge Computing spielt in den verteilten Infrastrukturen des Internet of Things (IoT) eine zunehmend wichtige Rolle. Dabei funktioniert die Technologie nach folgendem Prinzip: Lokale Geräte verarbeiten Daten wie Sensormesswerte direkt und führen eine Geschäftslogik aus, ohne Daten an einen Server zu übertragen. Eine Edge Runtime stellt hierfür die Funktionen für die Endgeräte bereit und steuert auf ihnen Module, beispielsweise Container. Die Kommunikation zwischen den Modulen und dem IoT-Hub in der Cloud übernimmt der Edge Hub. Auf diese Weise lässt sich die Peripherie lokal und ohne permanente Internetverbindung steuern. Das System performt schneller und besser, da weniger Daten durch das Netzwerk müssen. Relevante Analyseergebnisse gehen zu einem späteren Zeitpunkt an den Cloud-Server, sobald eine Internetverbindung besteht.

  • Einfallstor: Cloud-E-Mail-Dienst

    Digitale Büro-Dienste, wie Office 365 und G-Suite, kommen von Jahr zu Jahr häufiger in verschiedenen Unternehmen zum Einsatz. Die Vorteile liegen auf der Hand: Das Office-Paket, vor allem das E-Mail-Postfach, werden nicht mehr lokal auf dem Computer gespeichert, sondern über eine Cloud bezogen. Dort lagern auch die Nachrichten und sind somit von jedem Gerät aus abrufbar. In Zeiten der mobilen Mitarbeiter, die Smartphones oder Laptops nutzen, unverzichtbar. Jedoch kommt eine Sache im Zuge dieser Umstellung gerne zu kurz: die IT-Sicherheit. Generell kümmern sich Unternehmen zwar um dieses Thema, doch im Speziellen bleibt Potenzial zur Verbesserung. Organisationen aller Art müssen sich dringend um zuverlässige Schutzmaßnahmen für ihre E-Mail-Programme kümmern. Die virtuellen Nachrichten sind kein Nebenprodukt mehr, sondern die hauptsächliche Kommunikation vieler Angestellter untereinander und mit Kunden - besonders in Zeiten des Home Offices und gestiegenen Fernzugriffes. Gleichzeitig aber sind E-Mails auch ein hervorragendes Einfallstor für Cyber-Kriminelle, wenn keine Sicherheitslösungen diese daran hindern.

  • Praktikabilität des Cloud Printing

    Mittlerweile weiß wohl jeder Unternehmer - anfangs mussten IT-Mitarbeiter noch mit dem Mythos aufräumen, es handle sich um eine wortwörtliche Datenwolke -, worum es sich bei der viel diskutierten Cloud handelt: eine Armada von Servern, die rund um die Uhr in Benutzung enorme Datenmengen speichern und ausgeben. 75 Prozent der deutschen Unternehmen haben Cloud Computing bereits fest in ihre Geschäftsprozesse integriert - ausschließlich eine verschwindend geringe Zahl von acht Prozent beschäftigt sich weiterhin überhaupt nicht mit diesem Thema. Kein Wunder, denn die Vorteile der digitalen Speichersilos liegen auf der Hand: Dezentrales Arbeiten von überall und von jedem Endgerät aus, einheitliche Datensätze und die Möglichkeit, Änderungen in Echtzeit durchzuführen, sowie dadurch erheblich vereinfachte Prozesse - abteilungs- oder sogar unternehmensübergreifend. Auch das direkte Drucken aus- oder das direkte Scannen in die Cloud erweisen sich als extrem nützliche Tools für Anwender. Bisher konnten Unternehmen bereits eine ganze Reihe wichtiger Geschäftsprozesse in die Cloud verschieben.

  • Morgengrauen des Internet of Things

    Viele der größten Unternehmen sind heutzutage nicht mehr in der materiellen Produktion vorzufinden. Vorbei sind die Zeiten, in denen die großen Autohersteller oder ölfördernde Unternehmen die Spitze der wertvollsten Unternehmen unter sich ausmachten. So stand im Jahre 1996 der Financial Times zufolge General Electrics mit 136 Milliarden US-Dollar an der Spitze der wertvollsten Unternehmen weltweit - kein digitales Unternehmen schaffte es in den Anfangsjahren des Internets in die Top 5. Ein ganz anderes Bild bietet sich 2020, in welchem die ersten fünf Plätze allesamt unter den digitalen Riesen aufgeteilt werden. Microsoft führt in der neuen Erhebung mit 1,2 Billionen US-Dollar die Liste an.

  • Viele Unternehmen sind noch schlecht aufgestellt

    Großflächige Homeoffice-Möglichkeiten, E-Learning und Online-Medizin - was bis vor Kurzem noch unmöglich schien, ist Alltag geworden. Die Corona-Krise ist ein Wendepunkt in der Digitalisierung von Wirtschaft und Gesellschaft. Während in den vergangenen Jahren viel über ihre disruptive Kraft diskutiert, aber wenig gehandelt wurde, zeigt sich in der jetzigen Krise der wahre Charakter digitaler Innovationen. Sie machen Unternehmen und Organisationen in Krisenzeiten anpassungsfähig, handlungsfähig und damit überlebensfähig. Digitale Innovation ist damit gleichbedeutend mit "digitaler Resilienz" - sprich der Fähigkeit, sich mittels Digitalisierung bestmöglich gegen unvorhergesehene Krisen und externe Einflüsse zu immunisieren.

  • Virtuelle Desktop-Workspaces

    Nach den ersten hektischen Umstellungen auf Remote-Arbeitsplätze suchen viele Unternehmen nun eine nachhaltige tragbare Lösung für Remote Access. Sie wollen erreichen, dass ihre Mitarbeiter - falls nötig - auch längerfristig den täglichen Geschäftsbetrieb sicher von zu Hause aus weiterführen können. Dafür eignen sich ideal Desktops as a Service. Das ist eine Virtual-Desktop-Infrastructure (VDI)-Lösung, die sich schnell beispielsweise mit AWS WorkSpaces realisieren lässt. Jeder Mitarbeiter bekommt dort seinen eigenen virtuellen Desktop (Workspace) zur Verfügung gestellt. Alle virtuellen Desktops sind im eigenen privaten Netzwerk (Virtual Private Cloud, VPC) des Unternehmens. Dadurch sind sie vollständig isoliert vom Internet. Über einen sicheren Tunnel (IPSec) können sie sich mit der bestehenden Infrastruktur des Unternehmens verbinden.

  • Erfolgreiche digitale Transformation

    Unternehmen stehen mehr denn je unter immensem Druck, ihre Digitalisierung voranzutreiben, um in Zukunft flexibler und agiler operieren und schlagkräftiger auf Veränderungen reagieren zu können. Im Zuge der digitalen Transformation bietet eine Integration-Platform-as-a-Service (iPaaS) eine moderne Möglichkeit, Integrationsprojekte zu realisieren. Dies wird durch zentrale Entwicklung, Bereitstellung, Verwaltung und Überwachung von Integrationsprozessen auf einer Cloudplattform erreicht, die Datenquellen sowohl in der Cloud, als auch On-Premise verbinden. Das Ziel ist, alle Systeme und Endpunkte strategisch miteinander zu verknüpfen, sodass sie problemlos zusammenarbeiten können. Doch welche Kriterien muss iPaaS im Detail erfüllen?