- Anzeige -


Sie sind hier: Startseite » Markt » Studien

Komplexität von Enterprise-Cloud-Umgebungen


CIO-Studie: Cloud-Komplexität übersteigt menschliche Fähigkeiten
IT-Teams verbringen 15 Prozent ihrer Zeit mit dem Durchforsten von Warnmeldungen

- Anzeigen -





Dynatrace hat die Ergebnisse einer weltweiten Umfrage unter 800 CIOs vorgestellt. Demnach wächst die Kluft zwischen den vorhandenen IT-Ressourcen und den steigenden Management-Anforderungen für die immer größeren und komplexeren Enterprise-Cloud-Systeme. IT-Führungskräfte in Deutschland und weltweit sorgen sich um ihre Fähigkeit, das Business effektiv zu unterstützen. Denn herkömmliche Monitoring-Systeme und individuelle Lösungen überschwemmen ihre Teams mit Daten und Alerts, die mehr Fragen aufwerfen als Antworten bieten. Laut der Umfrage erhalten die IT- und Cloud-Operationteams jeden Tag im Durchschnitt fast 3.000 Alerts von ihren Monitoring- und Management-Tools. Aufgrund dieser hohen Anzahl verbringen IT-Teams durchschnittlich 15 Prozent ihrer Zeit mit der Analyse, welche Alerts wichtig und welche irrelevant sind. Das kostet Unternehmen im Durchschnitt 1,5 Millionen Dollar an Gemeinkosten pro Jahr. Daher suchen CIOs zunehmend nach Automatisierungs- und KI-Lösungen, um die Kontrolle zu behalten und die Lücke zwischen IT-Ressourcen sowie zunehmender Größe und Komplexität der Enterprise Cloud zu schließen.

Die wichtigsten Ergebnisse der Studie für Deutschland und weltweit:

IT ertrinkt in Daten
Herkömmliche Monitoring-Tools wurden nicht für die Menge, Geschwindigkeit und Vielfalt der Daten entwickelt, die von Anwendungen in dynamischen, webbasierten Enterprise Clouds erzeugt werden. Diese Tools funktionieren oft isoliert und berücksichtigen nicht den breiteren Kontext von Ereignissen, die über den gesamten Technologie-Stack hinweg ablaufen. Entsprechend bombardieren sie IT- und Cloud-Betriebsteams jeden Tag mit Tausenden Meldungen. Die IT ertrinkt in den Daten, da inkrementelle Verbesserungen der Tools keinen Unterschied bringen.

In Deutschland erhalten IT- und Cloud-Operationteams täglich 2.624 Alerts von ihren Monitoring- und Management-Tools (weltweit: 2.973). Das sind 15 Prozent mehr als in den letzten zwölf Monaten (weltweit: 19 Prozent).

68 Prozent der deutschen CIOs sagen, dass ihr Unternehmen mit der Anzahl der Meldungen von Monitoring- und Management-Tools zu kämpfen hat (weltweit: 70 Prozent).

Laut 74 Prozent der deutschen Unternehmen sind die meisten Alerts von Monitoring- und Management-Tools irrelevant (weltweit: 75 Prozent).

Im Durchschnitt erfordern nur 22 Prozent der Meldungen, die täglich bei Unternehmen in Deutschland eingehen, eine Aktion (weltweit: 26 Prozent).
Bestehende Systeme liefern mehr Fragen als Antworten

Herkömmliche Monitoring-Tools bieten nur Daten zu wenigen Komponenten aus dem Technologie-Stack. IT-Teams müssen daher Alerts manuell integrieren und korrelieren, um Dubletten und Fehlalarme herauszufiltern, bevor sie die eigentliche Problemursache manuell identifizieren können. Dies beeinträchtigt deutlich die Fähigkeit der IT-Teams, das Unternehmen und die Kunden zu unterstützen, da sie mehr Fragen als Antworten erhalten.

Im Durchschnitt verbringen deutsche IT-Teams 9 Prozent ihrer Zeit mit der Analyse, welche Alerts wichtig und welche irrelevant sind (weltweit: 15 Prozent).
Alleine diese Zeit zur Analyse kostet Unternehmen in Deutschland durchschnittlich 860.000 Euro pro Jahr (weltweit: 1,53 Millionen US-Dollar).
Die enorme Anzahl an Alerts führt dazu, dass 64 Prozent der deutschen IT-Teams mit Problemen kämpfen, die hätten verhindert werden sollen (weltweit: 70 Prozent).
Präzise, nachvollziehbare KI bringt Erleichterung

Unternehmen benötigen daher einen deutlich anderen Monitoring-Ansatz, der auf Antworten basiert. Nur damit können sie mit der Transformation ihrer IT-Umgebungen mithalten. Bei diesem Ansatz stehen KI und Automatisierung im Mittelpunkt.

"Vor einigen Jahren haben wir gesehen, dass die Größe und Komplexität von Enterprise-Cloud-Umgebungen die Möglichkeiten der heutigen IT- und Cloud-Operationteams übersteigen wird", sagt Bernd Greifeneder, CTO und Gründer von Dynatrace. "Wir erkannten, dass traditionelle Monitoring-Tools und Ansätze nicht annähernd das Volumen, die Geschwindigkeit und die Vielfalt der heute erzeugten Warnmeldungen bewältigen würden. Deshalb haben wir unsere Plattform neu erfunden, so dass sie keiner anderen gleicht. Die Dynatrace Software Intelligence Platform umfasst mehrere Module, die ein gemeinsames Datenmodell mit einer präzisen, nachvollziehbaren KI-Engine nutzen. Im Gegensatz zu anderen Lösungen, die einfach nur mehr Daten anzeigen, kann Dynatrace durch diese Kombination die präzisen Antworten und kontextabhängigen Ursachen liefern, die Unternehmen für die Bewältigung der Cloud-Komplexität benötigen. Letztlich erreichen sie damit einen KI-gesteuerten autonomen Cloud-Betrieb." (Dynatrace: ra)

eingetragen: 11.02.20
Newsletterlauf: 02.04.20

dynaTrace software: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Studien

  • Verzahnung von ITSM- und ITAM-Prozessen

    Die Harmonisierung von Arbeitsabläufen verschiedener Teams innerhalb einer gemeinsamen IT-Organisation bereitet Unternehmen weiterhin erhebliche Schwierigkeiten. Dies ist eine der Kernaussagen einer neuen Studie von Ivanti. Die Ergebnisse weisen vor allem auf Schwächen in der Verwaltung von IT-Ressourcen hin. Informationen über genutzte Assets liegen nicht oder in ungeeigneter Form vor, was wiederum Auswirkungen auf die Effizienz der IT-Abteilung als Ganzes hat. So erfasst und verfolgt beispielsweise fast die Hälfte der befragten IT-Experten (43Prozent) IT-Bestände immer noch per Tabellenkalkulation. Mindestens ebenso kritisch: 56 Prozent von ihnen verwalten Assets nicht über deren gesamte Lebensdauer hinweg. Eine solche Arbeitsweise erhöht die Gefahr, dass eigentlich überflüssige IT-Produkte zu spät entfernt werden, ein Sicherheitsrisiko darstellen und unnötige Kosten verursachen. Mängel, so die Umfrageergebnisse, existieren vor allem in der Abstimmung zwischen Arbeitsprozessen im IT-Service- und IT-Asset-Management (ITSM, ITAM).

  • IoT-basierte Hackerangriffe

    Aus der aktuellen Studie von Extreme Networks geht hervor, dass der Einsatz von IoT-Technologien weltweit zunimmt - nichtsdestotrotz sind Unternehmen sehr anfällig für IoT-basierte Angriffe. So gaben 84 Prozent der Unternehmen an, dass sie IoT-Geräte in ihren Unternehmensnetzwerken im Einsatz haben. Von diesen sind 70 Prozent über erfolgreiche oder geplante Hackerangriffe informiert, doch mehr als die Hälfte der Unternehmen verwendet keine Sicherheitsmaßnahmen, die über Standardpasswörter hinausgehen. Die Ergebnisse der Studie demonstrieren die Schwachstellen, die der schnell wachsende Einsatz von IoT-Technologien mit sich bringen kann und die Unsicherheit der Unternehmen, wie sie sich bei Sicherheitsverletzungen am besten verteidigen können.

  • Security und DevSecOps

    Die Umstellung der Anwendungsentwicklung und -wartung in deutschen Unternehmen auf agile Entwicklungsmethoden und DevOps ist weiterhin in vollem Gang. Vor allem der Markt für DevOps wächst in Deutschland weiter deutlich. Ein immer stärker werdender Schwerpunkt liegt dabei auf Security und DevSecOps. Dies meldet eine neue Studie der Information Services Group (ISG) (Nasdaq: III), ein führendes, globales Marktforschungs- und Beratungsunternehmen im Technologie-Segment. Insgesamt bewertet der "ISG Provider Lens Next-Gen Application Development & Maintenance (ADM) Services Report Germany 2019-2020" die Fähigkeiten von 33 Anbieterunternehmen in vier Marktsegmenten. Neben dem Übergang zu agilen Methoden und DevOps zeigen deutsche Unternehmen dem ISG-Anbietervergleich zufolge auch Interesse am Einsatz von Künstlicher Intelligenz und Machine Learning, um ihre Entwicklungs- und Wartungsprozesse weiter zu automatisieren. Viele große ADM-Anbieter würden diesem Automatisierungstrend folgen, während kleinere Anbieter oft damit kämpften, den Anschluss nicht zu verlieren.

  • Nutzung von Container-Technologien & Serverless

    "Serverless" ist viel mehr als nur ein Buzz-Wort der Cloud Computing-Branche. Die Technologie ist gelebte Realität, wie der aktuelle "The State of Serverless" Report von Datadog, Anbieter eines Monitoring-Service für moderne Cloud Computing-Umgebungen, belegt. Im Januar 2020, fünf Jahre nach dem Launch von AWS Lambda, vertraut bereits fast die Hälfte der Datadog-Kunden, die Amazon Web Services (AWS) nutzen, auf die Serverless-Technologie. Dabei sind es überraschenderweise nicht die kleinen, jungen Unternehmen, die auf Serverless setzen, sondern vor allem Großunternehmen und Konzerne mit einem umfassenden Cloud-Ökosystem. Über zwei Drittel der Großunternehmen nutzen AWS Lambda. Bei kleinen Unternehmen sind es weniger als 20 Prozent.

  • Cloud-basierte Tools im Mittelpunkt

    Die rasche Migration zu Cloud-basierten Technologien ist weltweit die größte Beeinträchtigung der Betriebsabläufe und ein wichtiger Faktor bei der Planung für IT-Sicherheitsbudget. Diese und andere Ergebnisse wurden in der der Sans 2020 Cybersecurity Spending Survey veröffentlicht. "Die Sans-Umfrage hat gezeigt, dass die schnelle Umstellung von Unternehmensdiensten und Geschäftsanwendungen auf cloud-basierte Technologie der größte Faktor ist, der zu Brüchen in bestehenden Sicherheitsarchitekturen führt, sowie die meisten neuen Sicherheitsausgaben antreibt", sagt John Pescatore, Sans Director für Emerging Security Trends. "Cloud-Überwachung und Cloud-Sicherheits-Zugangskontrollen waren die beiden wichtigsten Ausgabenbereiche, gefolgt von solchen zur Erhöhung der Fähigkeiten des Sicherheitspersonals, mit neuen Technologien wie der Cloud umzugehen und mit Änderungen der Vorschriften sowie neuen Bedrohungen Schritt zu halten."

  • Umfrage: "2020 State of Hybrid Cloud Security"

    FireMon veröffentlichte mit dem "2020 State of Hybrid Cloud Security Report" jetzt die jüngste Ausgabe der jährlichen Benchmark-Studie zum Status Quo der Sicherheitslandschaft in der Cloud. Diese zeigt die größten Herausforderungen auf, denen Unternehmen beim schnellen Wechsel auf öffentliche Cloud Computing-Umgebungen gegenüberstehen. Laut den über 500 Befragten, von denen 14 Prozent zur obersten Führungsebene zählten, lässt sich der Sicherheitsstatus von Infrastrukturen bei zunehmender Komplexität schwerer überblicken. Zudem gaben sie an, dass für das Thema IT-Security zuständige Teams immer kleiner werden und die für Absicherungsmaßnahmen bereitstehenden Budgets auf gleich bleibend niedrigem Niveau stagnieren.

  • Studie "The State of Enterprise Open Source 2020"

    Red Hat veröffentlichte die Ergebnisse der Studie "The State of Enterprise Open Source 2020", an der weltweit 950 IT-Führungskräfte teilnahmen. Eine zentrale Erkenntnis der zum zweiten Mal nach 2019 durchgeführten Untersuchung ist, dass die Nutzung von Open Source zunimmt, während proprietäre Software an Bedeutung verliert. 95 Prozent der Befragten halten Open Source zudem für eine wichtige Komponente einer Infrastruktur-Softwarestrategie. Die letztjährige Untersuchung ergab, dass 55 Prozent der von den befragten Unternehmen genutzten Software proprietär war. Dieser Wert ist auf 42 Prozent zurückgegangen und in zwei Jahren erwarten die Befragten nur noch einen Anteil von 32 Prozent. Im Gegensatz dazu erhöht sich der Anteil an Enterprise Open Source-Software von derzeit 36 Prozent auf 44 Prozent in zwei Jahren.

  • Umfrage: "2020 State of Hybrid Cloud Security"

    Die Komplexität öffentlicher und hybrider Cloud-Infrastrukturen, die mangelnde Automatisierung von Sicherheitsprozessen und rückläufige Ressourcen resultieren in Konfigurationsfehlern, die Datenverluste nach sich ziehen können. FireMon veröffentlichte mit dem "2020 State of Hybrid Cloud Security Report" jetzt die jüngste Ausgabe seiner jährlichen Benchmark-Studie zum Status Quo der Sicherheitslandschaft in der Cloud. Diese zeigt die größten Herausforderungen auf, denen Unternehmen beim schnellen Wechsel auf öffentliche Cloud-Umgebungen gegenüberstehen. Laut den über 500 Befragten, von denen 14 Prozent zur obersten Führungsebene zählten, lässt sich der Sicherheitsstatus von Infrastrukturen bei zunehmender Komplexität schwerer überblicken.

  • Agilität im Data Warehouse-Entwicklungsprozess

    WhereScape stellt die Ergebnisse einer weltweiten Studie des Business Application Research Center (BARC) zum Thema "Modernisierung des Data Warehouse: Herausforderungen und Vorteile" vor. Im Rahmen der Umfrage wurden 368 Nutzer aus einem breiten Spektrum verschiedener Positionen, Branchen und Unternehmensgrößen zu den wichtigsten Trends für die Modernisierung des Data Warehouse befragt. Diese Modernisierung steht bei vielen der Befragten (39 Prozent) hoch auf der Prioritätenliste, um der zunehmenden Komplexität der Datenlandschaft entgegenzuwirken und ihre Infrastruktur und internen Prozesse agil halten zu können. Als der wichtigste Modernisierungsansatz des Data Warehouse und ETL wird die Automatisierung angesehen. 60 Prozent der Befragten sehen sie als wichtigste Maßnahme zur Modernisierung des Data Warehouse an.

  • Security-Lösungen und Cloud-Konnektivität

    Derzeit betreiben Unternehmen durchschnittlich 45 Prozent ihrer IT-Infrastruktur in der Public Cloud, IT-Verantwortliche erwarten jedoch, dass diese Zahl in den nächsten fünf Jahren auf 76 Prozent ansteigen wird, so das Ergebnis einer neuen Umfrage von Barracuda Networks. Zugleich geben 70 Prozent der Befragten an, dass Sicherheitsbedenken die Einführung der Public Cloud in ihrer Organisation einschränken. Zudem sind 75 Prozent der Unternehmen bereits Ziel eines Cyber-Angriffs gewesen. Die von Barracuda in Auftrag gegebene Studie befragte 750 globale IT-Entscheidungsträger aus Unternehmen aller Größen und einem breiten Spektrum an Sektoren in EMEA, APAC und den USA zu ihren Erfahrungen bei der Verlagerung der Infrastruktur in die Public Cloud sowie zu Sicherheits- und Netzwerklösungen, die zur Überwindung von Hindernissen bei der Cloud-Migration implementiert werden. Insgesamt zeigt die Studie, dass die Akzeptanz der Public Cloud zwar weiter zunimmt, Sicherheitsbedenken aber immer noch das größte Migrationshindernis sind. Zu den Bedenken der Befragten zählen die Sicherheit der Public-Cloud-Infrastruktur, die Auswirkungen von Cyber-Angriffen sowie die Sicherheit von Applikationen, die in der Public Cloud bereitgestellt werden.