Sie sind hier: Startseite » Markt » Hintergrund

Umsetzung von Big Data-Projekten


Sechs Gründe, weshalb Unternehmen an Big Data-Projekten scheitern können
Annäherung an das Thema Big Data minimalistisch denken und zunächst möglichst kleine Projekte realisieren

(04.09.14) - Viele Unternehmen sind zu zögerlich, wenn es um die Implementierung von Big Data-Lösungen geht. Eine schrittweise Einführung, ausgehend von einem kleinen Lösungsansatz, kann hierbei sehr hilfreich sein, um die üblichen Probleme bei der Umsetzung von Big Data-Projekten frühzeitig zu erkennen und erfolgreich zu umschiffen zu können.

Das Thema Big Data ist in aller Munde und viele Unternehmen sind fasziniert von dem Gedanken, möglichst vollumfängliche Antworten auf bestehende unternehmerische Fragen, aus allen zur Verfügung stehenden Daten, herauszufiltern.

Doch zwischen andenken und umsetzen klafft eine gewaltige Lücke, wie eine Studie des Forschungsinstituts Gartner im Jahr 2013 ergab. Demzufolge sind 92 Prozent aller Unternehmen in Sachen Big-Data unentschlossen oder befinden sich noch in einer Planungsphase zur späteren Einführung. Von den restlichen Unternehmen, die bereits damit begonnen haben Big Data aktiv im Unternehmen zu implementieren, scheitern die meisten größtenteils. Die Gründe für ein Scheitern sind hierbei oftmals identisch.

Der Schlüssel für die erfolgreiche Umsetzung eines Big Data-Projekts liegt in der schrittweisen Umsetzung des Projekts und ist auch geprägt vom Willen der jeweiligen Mitarbeiter, die mit der Umsetzung betraut sind, denn diese können nur durch frühzeitiges scheitern effektiv hinzulernen. Aus diesem Grunde ist es erforderlich, bei der Annäherung an das Thema Big Data minimalistisch zu denken und zunächst möglichst kleine Projekte zu realisieren, um Erfahrungswerte sammeln zu können.

Big Data und der Herdentrieb
Big Data boomt. Gemäß des Forschungsinstituts Gartner haben bereits 64 Prozent aller im Jahr 2013 befragten Unternehmen angegeben, bereits eine Big Data Investition in Systeme durchgeführt zu haben oder diese zu planen. Dies ist eine Steigerung von 6 Prozent im Vergleich zum Jahr 2012. Immer mehr Unternehmen sind somit bestrebt möglichst umfangreiche Erkenntnisse aus ihren Datensammlungen zu gewinnen. Sei es zur besseren Kundenbindung, der Analyse von Finanz- und IT-Risiken oder zur Analyse von Log-Protokollen.

Von diesen 64 Prozent haben 30 Prozent der Befragten bereits schon einmal in eine Big Data-Technologie investiert und 19 Prozent planten, dies innerhalb eines Jahres zu tun, weitere 15 Prozent gaben an dieses innerhalb von zwei Jahren zu tun. Weniger als 8 Prozent der 720 durch Gartner befragten Unternehmen gaben hierbei an, bereits erfolgreich eine Big Data-Lösung im Einsatz zu haben.

Die Gründe für ein Scheitern sind hierbei oftmals auf ein gewisses Maß an Naivität zurückzuführen, denn oftmals wissen viele Unternehmen nicht, welche und wie sie eine Big Data-Lösung produktiv implementieren sollen. Denn für eine erfolgreiche Datenanalyse benötigt man auch entsprechendes Personal und Infrastruktur.

Kuert Datenrettung Deutschland nennt sechs Gründe, die ein Unternehmen bei Big-Data Projekten scheitern lassen:

1. Widerstand im Management
Unabhängig davon was Daten uns mitteilen können, fand die Fortune Knowledge Group heraus, das 62 Prozent aller Geschäftsführer sich bei Ihren Geschäftsentscheidungen mehr auf Ihre Erfahrung, als auf die Analyse von Daten zu berufen.

Auswahl des falschen Verwendungszwecks - Entweder starten Unternehmen bei der Einführung von Big Data mit einem viel zu großen und überambitionierten Projekt, oder sie versuchen ihre Big Data Probleme durch traditionelle und vorherrschende Daten-Technologie in den Griff zu bekommen, welche in der Folge mit den Anforderungen zur Analyse großer Datenströme komplett überfordert ist.

2. Große Datensilos
Hersteller von Big Data Applikationen sprechen sehr gern von "Daten-Seen" oder "Daten-Hubs", die Realität in vielen Unternehmen zeigt jedoch, das viele Unternehmen hier eher "Daten-Pfützen" installieren. Verbunden mit scharfen Abgrenzungen zwischen der "Marketing-Pfütze", der "Produktionsdaten-Pfütze", usw. Big Data ist jedoch wesentlich wertvoller für ein Unternehmen, wenn diese Barrieren eingerissen werden und die Daten so analysiert werden können, wie sie auch durchs Unternehmen fließen, im Besten Fall sogar bei der Big Data Analyse komplett zusammenfließen. Firmenpolitik und Unternehmensrichtlinien stehen diesem unterfangen oftmals konträr gegenüber. Die Einführung von Big Data Analyseprozessen sollte grundsätzlich in Zusammenarbeit mit dem jeweiligen Datenschutzbeauftragten des Unternehmens erarbeitet werden. Schon in der Planungsphase können somit praktische und unternehmenskonforme Lösungen erarbeitet werden.

3. Falsche Fragestellungen
Datenwissenschaft ist eine komplexe Mischung aus Branchenwissen, Mathematik, Statistik und Programmierkenntnissen. Exakt diese sind die Anforderungen deren einer Big Data-Lösung bedarf, um die Ergebnisse liefern zu können die sich das Unternehmen verspricht. Zu viele Unternehmen stellen Daten-Wissenschaftler und Analysten ein, bei denen es sich vielleicht um wahre Mathematik- und Programmiergenies handeln mag, welche jedoch jegliches Wissen zur elementarsten Komponente vermissen lassen: Branchenkenntnis.

4. Unvorhergesehene Big Data Probleme
Die Datenanalyse ist nur eine Komponente eines Big Data Projekts. In der Lage zu sein, auf Daten zuzugreifen und diese zu verarbeiten ist der kritische Teil des Ganzen, denn hier lauern Gefahren wie Netzwerküberlastung oder die unzureichende Ausbildung von Mitarbeitern.

Meinungsverschiedenheiten bei der Unternehmensstrategie - Big Data Projekte sind u.a. dann erfolgreich, wenn es sich hierbei nicht um vollkommen isolierte Projekte handelt, sondern Abteilungsübergreifend Einverständnis darüber herrscht, wie durch die Datenanalyse alle Abteilungen des Unternehmens direkt oder indirekt profitieren können. Probleme treten zumeist dann auf, wenn unterschiedliche Abteilungen unterschiedliche Prioritäten bei der Wertigkeit der einzelnen Projekte verfolgen, z.B. "Cloud Computing-Virtualisierung ist wichtiger als Big Data-Analyse, weil wir dadurch..."

5. Fehlende Qualifikation
Viele zu groß skalierte Big-Data Projekte schreiten nur sehr langsam voran oder scheitern komplett. Oftmals liegt dies darin begründet, dass die bei der Umsetzung beteiligten Personen nur über unzureichende Qualifikationen verfügen. Einer der Hauptgründe hierbei liegt in der Tatsache, dass die zu einem Big-Data Projekt involvierten Personen aus der eigenen IT-Abteilung des Unternehmens stammen.

6. Problemvermeidung
Manchmal wissen oder vermuten wir, dass die Erkenntnisse der Datenanalyse uns zu Aktionen verleiten können, die wir nicht realisieren möchten. Wie z.B. innerhalb der Pharmaindustrie, die keine Sentiment-Analysen durchführen möchte, um hierdurch Meldepflichten zu umgehen oder um Szenarien zu vermeiden, die mehr Ärger einbringen könnten, als das sie Nutzen stiften. Was sich wie ein roter Faden durch diese Liste zieht ist die Erkenntnis, dass je stärker man sich auf die Daten fokussiert, festzustellen ist, dass der Mensch hierbei im Wege steht. So sehr ein Unternehmen auch bestrebt sein dürfte, Unternehmensentscheidungen einzig und allein aufgrund von Kennziffern zu treffen, so werden die Entscheidungen im Big Data Prozess welche Daten, gesammelt und mit in die Analyse einbezogen werden oder welche Fragen durch die Analyse beantwortet werden sollen, im Endeffekt doch wiederum nur von Menschen getroffen.

Besser schrittweise Innovation
Weil so viele Unternehmen dem Start eines eigenen Big-Data Projekts unentschlossen gegenüberstehen, gepaart mit der Angst vor einem Scheitern des Projekts, ist es unerlässlich sich dem Thema Big Data in kleinen Schritten zu nähern. Hierzu eignen sich entweder kostengünstige Anbieter, die einem Unternehmen den Weg zur Analyse großer Daten ebnen können oder die Möglichkeit die eigenen Mitarbeiter in die Lage zu versetzen mit Kopien der eigenen Daten zu experimentieren.

Ein "Kleiner Start / Schnelles scheitern" Ansatz ist hierbei angeraten, auch hinsichtlich der Tatsache, dass ein Großteil der Big Data-Technologie auf Open Source beruht. Auch die Zuhilfenahme von unterschiedlichen Plattformen wie Cloud Computing-Diensten tragen dazu bei, nicht nur die Kosten zu senken, sondern eignen sich auch dazu, dass Trial & Error-Prinzip zu unterstützen.

"Beim Thema Big Data geht es in erster Linie darum die richtigen Fragen zu stellen, deswegen sind die eigenen Mitarbeiter mit Ihrer Branchenkenntnis und Erfahrung ein unverzichtbarer Bestandteil einer guten Big Data-Strategie. Doch selbst mit den umfangreichsten Branchenkenntnissen, werden Unternehmen nicht in der Lage sein, alle hierfür relevanten Daten im Unternehmen zu sammeln. Zudem werden sie daran scheitern von Beginn an die wichtigsten Fragen zu stellen. Diese Fehler sollten aus unternehmerischer Sicht erwartet und akzeptiert werden, denn sie sind ein klassischer Bestandteil hin zu einer unternehmensspezifischen Big Data-Analyse”, so Martin Eschenberg Marketingleiter bei Kuert.

Eine flexible und offene Daten-Infrastruktur im Rahmen des BDSG erlaubt den Mitarbeitern von Unternehmen sich kontinuierlich zu verbessern, solange bis die Bemühungen erste Früchte tragen. (Kuert Datenrettung Deutschland: ra)

Kuert Datenrettung: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Hintergrund

  • Nutzung von KI-Tools

    In einer Gartner-Studie¹ aus dem Jahr 2024 gaben zwei Drittel der Befragten an, dass Kunden zögern, wenn es um den Einsatz von KI im Kundenservice geht. Dies stellt Unternehmen vor ein Dilemma, da sie zunehmend auf KI setzen, um Kosten zu senken, Einblicke in Geschäftsprozesse zu gewinnen und mit innovativen Technologien auf dem neuesten Stand zu bleiben, während sie gleichzeitig die Kundenzufriedenheit aufrechterhalten.

  • Cloud-Edge-Infrastruktur in Europa

    eco - Verband der Internetwirtschaft e.V. übernimmt das Projektmanagement für das neu gestartete Projekt FACIS im Rahmen der europäischen Infrastrukturinitiative IPCEI-CIS/8ra . FACIS steht für das Konzept der Federation Architecture for Composed Infrastructure Services und wird seit November 2024 für die kommenden zwei Jahre vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) mit rund 6,8 Millionen Euro gefördert.

  • 2025 zeichnen sich fünf KI-Trends ab

    Scott Zoldi, KI-Visionär und Chief Analytics Officer bei Fico, sieht aktuell folgende fünf KI-Trends: Erkenntnis in Unternehmen reift: Nicht jede KI ist eine GenAI. Unternehmen befassen sich zunehmend mit dem geschäftlichen Mehrwert ihrer KI-Investitionen. Sie achten immer mehr darauf, bei welchen Herausforderungen GenAI eine gute Lösung bringt und wo traditionelle KI-Technologie und interpretierbares maschinelles Lernen die Alternative sind. Tatsächlich sind mehr als 80 Prozent aller KI-Systeme, die heute in Unternehmen im Einsatz sind, keine GenAI.

  • Nutzung von KI als Wirtschaftsfaktor

    Die Entwicklung und Adaption von Künstlicher Intelligenz in Deutschland geht einigen viel zu langsam. Ist das wirklich so? Tatsächlich haben wir die KI weder verschlafen noch mutwillig ein- und ausgebremst. Aber es gibt eine Reihe von Besonderheiten, die der Nutzung von KI als Wirtschaftsfaktor nicht förderlich sind.

  • Erste Warnungen in Europa vor US-Clouds

    Norwegen und Dänemark warnen vor US-Cloud-Anbietern. Werden Deutschland und weitere europäische Länder diesem Beispiel folgen? Wann werden Regeln zum Datenschutz verschärft und wie können Unternehmen diese Hürde meistern?

  • Weg zu mehr Nachhaltigkeit

    Die sich zunehmend verschärfende Energieknappheit stellt Industrie, Haushalte und Politik vor enorme Herausforderungen. In einigen Branchen führt dies bereits dazu, dass Produktionskapazitäten gedrosselt werden. Vor diesem Hintergrund geraten auch Rechenzentren ins Blickfeld, die als digitale Infrastrukturen der modernen Gesellschaft zwar eine zentrale Rolle spielen, aber auch als besonders energieintensiv gelten.

  • Von der Optimierung zur Transformation

    Generative Künstliche Intelligenz (GenAI) wird 2025 zum Standardwerkzeug der deutschen Wirtschaft. Nahezu acht von zehn Unternehmen (79 Prozent) setzen die Technologie ein oder haben es vor. Der Fokus liegt allerdings auf der Optimierung und nicht auf der Transformation des Geschäfts. Lediglich 46 Prozent der Entscheider sind der Meinung, dass es mittelfristig neue, vollständig KI-basierte Geschäftsmodelle geben wird.

  • Welche Chancen bieten AI und Automatisierung?

    Automatisierung am Arbeitsplatz, kombiniert mit Artificial Intelligence (AI), GenAI, Machine Learning (ML) und Orchestrierung, ermöglicht Unternehmen, Arbeitsabläufe auf ein neues Level zu heben. Durch diese Technologien lassen sich skalierbare, anpassungsfähige Geschäftsprozesse schaffen, die auf langfristige Ziele ausgerichtet sind.

  • Datenschutzstrategien für hybride IT

    Eine von Arcserve beauftragte unabhängige Befragung unter IT-Führungskräften ergab, dass 80 Prozent schon einmal von Ransomware betroffen waren. Während 82 Prozent der Betroffenen angaben, dass sie den Schaden innerhalb von 48 Stunden beheben konnten, war dazu knapp ein Fünftel nicht in der Lage. Problematisch ist auch, dass bis zu 30 Prozent der Daten bei einem erfolgreichen Ransomware-Angriff nicht wiederhergestellt werden konnten.

  • Cloud-basierte Monetarisierung löst Probleme

    Mit ihrer jahrzehntelangen Erfahrung im Management wiederkehrender Kundenbeziehungen sind Telekommunikationsunternehmen (Telcos) attraktive Partner in der Abonnement-Wirtschaft. Ihr großer Kundenstamm, der sich durch historisch niedrige Abwanderungsraten auszeichnet, bietet eine solide Grundlage, um vom wachsenden Abonnementmarkt zu profitieren.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen