Sie sind hier: Startseite » Markt » Studien

Herausforderungen von Big Data erkannt


Studie: "In Memory-Datenanalysen in Zeiten von Big Data" - Herausforderungen für Datenanalyse und Reporting durch Big Data
Unternehmen wappnen sich für Big Data, In Memory-Analysen gehören zum Rüstzeug


(11.10.12) - Laut einer von Pierre Audoin Consultants (PAC) veröffentlichten repräsentativen Studie haben deutsche Unternehmen die Herausforderungen von Big Data erkannt und betrachten In-Memory-Datenanalysen als einen wichtigen, aber nicht als den einzigen Lösungsansatz. Rund 60 Prozent der Unternehmen planen Investitionen in Data Warehouse, Datenmanagement und -integration sowie In-Memory-Datenanalyse. Den größten Mehrwert von In-Memory sehen sie in der Beschleunigung bestehender Datenanalysen.

Big Data und In-Memory Computing sind für deutsche Unternehmen längst keine Hype-Themen mehr. Sie haben erkannt, dass die steigende Datenflut neue Herausforderungen bei der Datenanalyse mit sich bringt und sie diesen adäquat begegnen müssen.

Dies ist eines der Ergebnisse der aktuellen Studie der Marktanalyse- und Beratungsgesellschaft Pierre Audoin Consultants (PAC). Für die Studie "In Memory-Datenanalysen in Zeiten von Big Data" wurden 102 IT-Verantwortliche in Firmen mit mindestens 500 Mitarbeitern aus unterschiedlichen Branchen in Deutschland befragt.

In-Memory-Datenanalysen als Ergänzungsbaustein
Mit dem rapide wachsenden Datenvolumen (Big Data) steigen auch die Anforderungen an Datenanalyse- und Reportingsysteme. So verwundert es nicht, dass auf In-Memory Computing basierende Analyseverfahren ein viel diskutiertes Thema in der IT-Branche sind. "Die Frage, ob In-Memory-Analysen in Zeiten von Big Data eine Rolle spielen, kann mit einem klaren Ja beantwortet werden", resümiert Frank Niemann, Principal Consultant Software Markets bei PAC und Autor der Studie. Er ergänzt: "Allerdings sehen deutsche IT-Manager In-Memory-Verfahren als einen von mehren Wegen, den Herausforderungen von Big Data zu begegnen."

So betrachtet die Mehrheit der deutschen Unternehmen In-Memory-Verfahren zunächst als Ergänzungsbaustein für zeitkritische Analysen. Immerhin bereits knapp 20 Prozent der Unternehmen sehen in ihnen aber eine wichtige Antwort auf die Herausforderungen durch Big Data. Sie erwarten, dass In-Memory-Systeme zentraler Bestandteil von Datenanalyseumgebungen werden.

"Unternehmen erkennen zunehmend die Chancen, die Big Data ihnen bietet. Datensammlungen sind erst dann sinnvoll, wenn sie zeitnah analysiert und komplexe Zusammenhänge aus ihnen herausgelesen werden", sagt auch Bodo Koerber, Director of Information Management, IBM Software Group, IBM Deutschland. "Aber es gibt kein one size fits all – die konkreten Anforderungen eines Unternehmens bestimmen, welcher Technologie-Mix ihm den höchsten Nutzen bringt. Sollen strukturierte Daten analysiert werden, kann In-Memory, bspw. mit Cognos TM1, ein Baustein sein. Sind es unstrukturierte Daten - das ist die Mehrheit der neu hinzukommenden Datenmengen –, kommen ein Data Warehouse wie Netezza oder Datenmanagement und -integration, wie DB2 oder InfoSphere, ins Spiel. IBM erstellt für jeden Kunden eine individuelle Information Agenda, die auf einem umfassenden Service- und Produktportfolio für Big Data jenseits von Schlagwörtern aufsetzt."

Mehrwerte von In-Memory-Datenanalysen
Einen zentralen Vorteil von In-Memory-Analysesystemen sehen die Unternehmen in der Beschleunigung bestehender Datenanalysen. Sie benennen aber auch jene Mehrwerte, die direkt mit ihren wesentlichen Anforderungen an Datenanalyse und Reporting zusammenhängen: Bessere Unterstützung von Ad-hoc-Analysen bzw. schnellere Bereitstellung neuer Analysen sowie die effiziente Deckung des Analysebedarfs aus den Fachbereichen. Nicht zuletzt ist auch die insgesamt erhöhte Reaktionsfähigkeit des Unternehmens ein wichtiges Argument für In-Memory-Analysen. Konkrete Projekterfahrungen bestätigen diese Argumente.

Hohe Investitionsbereitschaft
Big Data ist Investitionstreiber: Gut 60 Prozent der deutschen Unternehmen planen Investitionen in mindestens einem der folgenden drei Bereiche: Data Warehouse, Datenmanagement und -integration sowie In-Memory-Datenanalyse, wobei bei letzterer der Bedarf noch gering ist.

Anwenderunternehmen, die in diesen Bereichen in Hard- und Software investieren, haben zugleich einen hohen Bedarf an Beratungs- und Integrationsdienstleistungen. Die aktuelle Studie liefert belastbare Zahlen zu Anforderungen an Datenanalyse- und Reportingsysteme und entsprechenden Investitionsplänen in deutschen Unternehmen. Ein besonderer Fokus lag in der Frage nach der Bedeutung von auf In-Memory Computing basierenden Datenanalyseverfahren in Zeiten von Big Data.

Die Ergebnisse der Untersuchung basieren auf einer repräsentativen computergestützten, telefonischen Umfrage unter 102 IT-Leitern und IT-Verantwortlichen in Deutschland. Es wurden nur Unternehmen befragt, die bereits Lösungen und Tools für Datenanalyse und Reporting einsetzen. Ergänzend führte PAC zahlreiche Expertengespräche mit IT-Managern, um die Erkenntnisse aus der Befragung weiter zu vertiefen. (PAC: ra)

PAC: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Studien

  • SaaS: Neuer blinde Fleck in der Cyber-Resilienz

    Hycu stellte die Ergebnisse des State of SaaS Resilience Report 2025 vor. Dies ist eine unabhängige internationale Umfrage unter 500 IT-Entscheidungsträgern. Aus den Ergebnissen geht klar hervor, dass sowohl die Nutzung von Software-as-a-Service (SaaS) als auch damit verbundene Cybervorfälle zunehmen, während die Datenresilienz weit hinter den Anforderungen der Unternehmen zurückbleibt.

  • Agentic AI verspricht Produktivitätssprünge

    Bei der Einführung von Künstlicher Intelligenz (KI) zeigt sich ein deutliches Spannungsfeld zwischen den hohen Erwartungen und der tatsächlichen Umsetzung. Vielen Unternehmen gelingt es bisher nicht, aus der Vielzahl ihrer Proofs of Concept (PoC) KI-Lösungen erfolgreich in ihre Geschäftsprozesse zu integrieren. Die Ursachen hierfür liegen vor allem im Change Management und in der Datenqualität, weniger in der Technologie. Gleichzeitig kündigt sich mit Agentic AI bereits die nächste technologische Welle an: 73 Prozent der Entscheider rechnen bis 2028 mit einer zunehmenden Relevanz autonomer KI-Agenten. Aktuell experimentieren 38 Prozent mit ersten Anwendungen.

  • Digitale Transaktions- und Plattformmodelle

    Die deutsche Internetwirtschaft bleibt Wachstumstreiber, droht aber an politischen Versäumnissen zu scheitern. Laut einer Studie von Arthur D. Little im Auftrag des eco - Verband der Internetwirtschaft e.V. steigt der Umsatz von 245 Milliarden Euro 2025 auf 389 Milliarden Euro im Jahr 2030 - ein jährliches Plus von fast zehn Prozent. Treiber sind digitale Plattform- und Transaktionsmodelle, die bereits heute knapp 40 Prozent der Erlöse ausmachen.

  • Generative KI führt Technologie-Ranking an

    Esker hat die Ergebnisse der aktuellen Trendstudie "KI-gesteuerte Automatisierung im Customer Service 2025" vorgestellt. Die Trendstudie zeigt, dass der KI-Einsatz im Customer Service signifikant an Fahrt aufnimmt. Demnach setzen bereits 44 Prozent der befragten Unternehmen KI-Technologien in diesem Bereich ein - eine Verdopplung gegenüber der Vergleichsstudie aus dem Jahr 2023.

  • KI entwickelt sich zum unverzichtbaren Werkzeug

    PagerDuty, Anbieterin im Bereich Digital Operations Management, hat neue Umfrageergebnisse veröffentlicht. Diese belegen ein wachsendes Vertrauen von Führungskräften in KI-Agenten und zeigen, dass sich Unternehmen in allen Geschäftsbereichen zunehmend auf KI verlassen. Der PagerDuty AI Resilience Survey, für den 1.500 IT- und Führungskräfte aus Australien, Frankreich, Deutschland, Japan, Großbritannien und den USA befragt wurden, ergab, dass 81 Prozent der Führungskräfte (82 Prozent in Deutschland) darauf vertrauen, dass KI-Agenten in Krisensituationen, wie z. B. bei einem Dienstausfall oder einem Sicherheitsvorfall, im Sinne des Unternehmens Maßnahmen ergreifen.

  • KI-Integration stark angestiegen

    Cloudera veröffentlichte die Ergebnisse ihrer jüngsten globalen Umfrage "The Evolution of AI: The State of Enterprise AI and Data Architecture". Die Erhebung untersucht die beschleunigte KI-Integration sowie die Entwicklung von Datenarchitekturen in Unternehmen und die neuen Herausforderungen für die sichere Skalierung von KI im Jahr 2025. Dafür wurden mehr als 1.500 IT-Führungskräfte befragt.

  • Souveräne Cloud hat hohe Relevanz

    Die Cloud-Transformation, digitale Souveränität und Künstliche Intelligenz (KI) führen zu umfangreichen Veränderungen im IT-Sourcing. Um in diesem Spannungsfeld erfolgreich zu navigieren, überprüfen immer mehr Unternehmen ihre bisherigen IT-Sourcing-Strategien. Während viele Unternehmen beim Cloud Sourcing schon fortgeschritten sind, stehen europäische und insbesondere deutsche Unternehmen angesichts geopolitischer Veränderungen unter Druck, ihre langjährigen technologischen Abhängigkeiten von US-amerikanischen IT-Providern zu reduzieren und systematischer zu steuern. 71 Prozent der Unternehmen wollen daher zukünftig stärker mit IT-Sourcing-Beratern zusammenarbeiten, um unter anderem ihre Interessen gegenüber Cloud-Anbietern besser vertreten zu können. Zudem dringt KI immer tiefer in die IT-Wertschöpfungskette vor, beispielsweise in den Bereichen Cyber Security, IT-Service-Management oder Softwareentwicklung. Mehr als ein Drittel der Unternehmen setzt KI-Lösungen bereits im Service Desk ein.

  • KI ein geschäftlicher Hebel

    Kyndryl, IT-Dienstleisterin für unternehmenskritische Systeme, hat die Ergebnisse seiner dritten jährlichen State of Mainframe Modernization Survey veröffentlicht. Die Studie zeigt, wie Unternehmen die Schlüsselrolle des Mainframes in einer sich rasant wandelnden digitalen Landschaft neu definieren. Sie verdeutlicht, dass Firmen auf flexible Modernisierungsstrategien setzen, KI im großen Maßstab nutzen und den Einsatz des Mainframes in hybriden IT-Umgebungen ausweiten - und das trotz Fachkräftemangel und wachsender Regulierung.

  • Cloud Security Posture Management

    Tenable veröffentlichte kürzlich ihren State of Cloud and AI Security 2025 Report, aus dem hervorgeht, dass das rasante Wachstum von Hybrid-, Multi-Cloud- und KI-Systemen schneller voranschreitet als die Entwicklung von Cloud-Sicherheitsstrategien, sodass neue Ebenen an Komplexität und Risiken entstehen.

  • Nutzung von GenAI-Applikationen

    Nutanix, Spezialistin für Hybrid Multicloud Computing, hat die Ergebnisse der siebten Ausgabe ihrer jährlichen Studie Enterprise Cloud Index (ECI) für Deutschland vorgestellt. Demnach teilen deutsche Unternehmen generell die Prioritäten ihrer Kollegen in EMEA und weltweit bei Einführung und Umsetzung von generativer künstlicher Intelligenz (GenAI) und Containerisierung. Sie setzen jedoch im Detail abweichende Schwerpunkte und erwarten einen längeren Zeithorizont, bis sich Investitionen in GenAI-Projekte rechnen. Hauptgründe dafür sind offenbar Bedenken hinsichtlich Sicherheit und Datenschutz sowie der in Deutschland immer stärker spürbare Fachkräftemangel.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen