Sie sind hier: Startseite » Markt » Tipps und Hinweise

KI-gestützte Observability und Automatisierung


Full-Stack Observability ist mittlerweile nahezu unumgänglich für Unternehmen, die Innovationen in zunehmend Cloud-nativen Umgebungen bereitstellen müssen
Vereinfachung komplexer IT-Umgebungen durch Full-Stack Observability


Von Andreas Grabner, CNCF Ambassador and Dynatrace DevRel

Unternehmen kämpfen mit der zunehmenden Komplexität der Cloud. IT-Teams brauchen daher neue Möglichkeiten, um Probleme über den gesamten Technologie-Stack hinweg – von Mainframes bis hin zu Multi-Cloud-Umgebungen – zu erkennen und auf sie reagieren zu können: "Full-Stack Observability". Diesen umfassenden Überblick zu erhalten, ist auch deshalb unverzichtbar, weil Unternehmen innovative Lösungen zunehmend in Cloud-nativen Umgebungen entwickeln. Doch wie funktioniert Full-Stack Observability? Welche Vorteile bietet die Technologie bezüglich der Cybersicherheit und der Automatisierung manueller Prozesse?

Jeden Endpunkt sehen
Full-Stack Observability beschreibt die Fähigkeit, den Zustand jedes Endpunkts in einer verteilten IT-Umgebung auf der Grundlage seiner Telemetriedaten zu bestimmen. Zu den Endpunkten gehören lokale Server, Kubernetes-Infrastrukturen, in der Cloud gehostete Infrastrukturen und Dienste sowie Open-Source-Technologien. Durch die Observability des gesamten Technologie-Stacks erhalten IT-Teams einen umfassenden Echtzeit-Einblick in das Verhalten, die Leistung und den Zustand von Anwendungen und der zugrunde liegenden Infrastruktur.

Observability-Lösungen nutzen Telemetriedaten wie Protokolle, Metriken und Traces, um IT-Verantwortlichen Einblicke in die Anwendungs- und Infrastruktur-Performance sowie die tatsächliche Nutzererfahrung zu geben. Dieser Kontext ermöglicht es auch nachzuvollziehen, wie all diese Einheiten miteinander verbunden sind Dabei geht es nicht nur um Infrastrukturverbindungen, sondern auch um die Beziehungen und Abhängigkeiten zwischen Containern, Microservices und Code auf allen Netzwerkschichten.

Eine umfassende Observability ist nicht zuletzt unerlässlich für das Digital Experience Monitoring (DEM). Hierdurch kann die grundlegende Nutzererfahrung ermittelt werden. Fachkräfte können die Ladezeiten von Webseiten, Reaktionszeiten von Webapplikationen beim Endanwender optimieren und die Latenz verringern. Die schnelle Behebung von Problemen sorgt so zum Beispiel bei Webshops für ein positives Kundenerlebnis und einen ungestörten Einkauf.

Warum Observability des gesamten Systems wichtig ist
Cloud-Umgebungen stellen die IT vor viel komplexere Herausforderungen als traditionelle, lokale Rechenzentren. Als Reaktion darauf fügen viele Unternehmen weitere Überwachungstools hinzu. Doch unter Umständen erhöht die Vielzahl an Tools die Komplexität noch weiter und verlangsamt sogar die Reaktion auf Probleme, weil die Übersicht fehlt.

Wenn die IT-Teams ihre Tools in getrennten Silos verwenden, fehlt ihnen ein vollständiges Bild der Aktivitäten. Ohne eine zentralisierte Quelle, in der alle relevanten Informationen zusammengeführt werden, haben selbst die besten Fachkräfte oft Schwierigkeiten, dringende geschäftskritische Probleme zu verstehen und effizient zu lösen.

Observability ändert dies. Es bietet über eine zentralisierte Plattform Einblick in jede Schicht der Anwendungsinfrastruktur und reduziert so den Wildwuchs an Überwachungstools, der mit hohen Kosten und Ineffizienz einhergeht. DevOps-Teams profitieren ganz besonders von der Observability des vollständigen Technologie-Stacks. Sie erhalten genaues Echtzeit-Feedback von Integrations- oder Produktionssystemen und können somit Probleme hinsichtlich der Nutzererfahrung und Anwendungsleistung schneller lösen. Dank verbesserter Diagnose- und Analysefunktionen verbringen DevOps-Teams weniger Zeit mit der Fehlersuche und können stattdessen ihre Expertise für die Entwicklung neuer Funktionen einsetzen, von denen Benutzer profitieren.

Sechs Vorteile von Full-Stack Observability im Überblick

1. Bewusstsein für die gesamte Umgebung:
Viele Unternehmen haben heute eine Multi-Cloud-Umgebung. Observability bietet einen durchgängigen Einblick in die Gesamtheit der Anwendungsumgebung und beseitigt blinde Flecken in Bezug auf Leistung, Zustand und Verhalten aller Applikationen. Ohne vollständige Observability haben Fachkräfte bestenfalls ein partielles Verständnis ihrer Anwendungsinfrastruktur.

2. Präzise Ursachenermittlung und Priorisierung von Problemen: IT- und DevOps-Teams verschwenden keine Zeit mit dem Durchforsten von Daten und der Interpretation von Statistiken. Mithilfe von Observability können sie schnell die grundlegenden Ursachen identifizieren und Probleme gemäß den Auswirkungen auf Benutzer und Unternehmen priorisieren.

3. Beschleunigung und Automatisierung der CI/CD-Pipeline: Full-Stack Observability hilft DevOps-Teams, potenzielle Probleme in der CI/CD-Pipeline (Continuous Integration und Continuous Delivery) rasch zu identifizieren und schneller zu beheben. So kann neue Software schneller in Produktion genommen werden, Unternehmen steigern ihre Innovationsgeschwindigkeit und profitieren schneller von der Umsetzung guter Ideen.

4. Integration von Runtime-Application-Security in DevSecOps: Sicherheitsteams müssen Risiken adressieren und managen. Deshalb werden sie von anderen IT-Teams oft als Innovationsbremse wahrgenommen. Full-Stack Observability beseitigt diese interne Konfliktkonstellation, weil sie IT-Teams ermöglicht, die Runtime-Application-Security effektiver in DevSecOps-Prozesse zu integrieren. So können die IT-Mitarbeiter die Geschäftsziele unterstützen, ohne die Sicherheit zu gefährden.

5. Bessere Geschäftsentscheidungen mit präziser Analytik: Wenn IT-Teams und Fachabteilungen nicht Hand in Hand arbeiten, ist es für Unternehmen schwierig, geschäftskritische Entscheidungen zu treffen. Observability sorgt für die nötige Transparenz, damit alle Beteiligten einen gemeinsamen Bezugsrahmen haben und sich auf geschäftliche Prioritäten einigen können.

6. Beseitigung operativer Silos und Optimierung der Zusammenarbeit: Mit einer zentralisierten Quelle aller relevanten Informationen für die Ursachenanalyse können sich IT- und DevOps-Teams schnell darüber verständigen, was getan werden muss, um eine gute Funktion zu gewährleisten und wer dafür verantwortlich ist. Dies verbessert die abteilungsübergreifenden Arbeitsbeziehungen und sorgt für eine flüssige interne Zusammenarbeit.

Die Komplexität der Cloud hat den Einblick in das gesamte System erschwert. Doch mit einer zentralisierten Plattform, die die Überwachung über den gesamten Technologie-Stack hinweg automatisiert, können Unternehmen alle erforderlichen Betriebs- und Business-Performance-Metriken erhalten, vom Front-End bis zum Back-End und zu allem, was dazwischen liegt. Hier wirkt auch Künstliche Intelligenz Wunder: Sobald ein System alle erforderlichen Telemetriedaten zusammenführt, kann deterministische KI schnell aufzeigen, was wichtig ist und weshalb. Dann fällt es Fachkräften leicht, die richtigen Maßnahmen zu ergreifen. Der Einsatz von KI für den IT-Betrieb (AIOps) hilft nicht nur dabei, die Informationsflut im IT-Betrieb zu beherrschen, sondern auch die Effizienz und Innovationsgeschwindigkeit zu erhöhen. AIOps ermöglichen eine automatisierte Ursachenanalyse, sodass IT-Teams sich auf übergeordnete Aufgaben konzentrieren können, statt sich in der Suche nach Fehlern zu verlieren.

Durch die Observability des gesamten Systems können Unternehmen alles durchblicken - von der Erfahrung des Endanwenders bis hin zum Zustand der Infrastruktur, inklusive aller Beziehungen und Abhängigkeiten zwischen den einzelnen Schichten, Komponenten oder Codeteilen. Dies unterstützt Unternehmen dabei, ihre digitale Transformation schneller, einfacher und intelligenter gestalten. (Dynatrace: ra)

eingetragen: 07.12.23
Newsletterlauf: 26.02.24

Dynatrace: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Tipps und Hinweise

  • Optimale Wissensspeicher

    Graphdatenbanken sind leistungsstarke Werkzeuge, um komplexe Daten-Beziehungen darzustellen und vernetzte Informationen schnell zu analysieren. Doch jeder Datenbanktyp hat spezifische Eigenschaften und eignet sich für andere Anwendungsfälle. Welche Graphdatenbank ist also wann die richtige? Aerospike empfiehlt Unternehmen, ihre Anforderungen unter vier Gesichtspunkten zu prüfen.

  • Zugang zu anfälligen Cloud-Hosts

    Zwischen 2023 und 2024 haben laut einer aktuellen Studie 79 Prozent der Finanzeinrichtungen weltweit mindestens einen Cyberangriff identifiziert (2023: 68 Prozent). Hierzulande berichtet die BaFin, dass 2023 235 Meldungen über schwerwiegende IT-Probleme eingegangen sind. Fünf Prozent davon gehen auf die Kappe von Cyberangreifern.

  • Wachsende SaaS-Bedrohungen

    Die jüngsten Enthüllungen über den massiven Cyberangriff von Salt Typhoon auf globale Telekommunikationsnetzwerke sind eine deutliche Erinnerung an die sich entwickelnde und ausgeklügelte Natur von Cyberbedrohungen. Während die Angreifer sich darauf konzentrierten, Kommunikation abzufangen und sensible Daten zu entwenden, werfen ihre Handlungen ein Schlaglicht auf ein umfassenderes, dringenderes Problem: die Unzulänglichkeit traditioneller Datensicherungsmethoden beim Schutz kritischer Infrastrukturen.

  • Einführung des Zero-Trust-Frameworks

    Die Cyber-Sicherheit entwickelt sich mit rasanter Geschwindigkeit, weshalb eine traditionelle Verteidigung den Anforderungen nicht mehr gerecht wird. Moderne Cyber-Bedrohungen bewegen sich inzwischen mühelos seitlich innerhalb von Netzwerken und nutzen Schwachstellen aus, die mit traditionellen Perimeter-Schutzmaßnahmen nicht vollständig behoben werden können.

  • Leitfaden für eine erfolgreiche DRaaS-Auswahl

    Investitionen in DRaaS (Disaster-Recovery-as-a-Service) sind sinnvoll und zukunftsweisend, denn DRaaS hilft den Unternehmen, ihre IT-Systeme und Daten im Fall eines Datenverlusts schnell wiederherzustellen. Allerdings sollte man im Vorfeld eine gründliche Marktanalyse durchführen und sich über die Funktionsweise und Kosten der verschiedenen Lösungen informieren.

  • ERP-Software muss ein Teamplayer sein

    So wichtig ERP-Systeme auch sind, bei der Auswahl der richtigen Lösung und Anbieter gibt es für Unternehmen eine Reihe von Aspekten zu beachten - schließlich bringen nur passgenaue und ausgereifte Systeme auch die erwünschten Vorteile. IFS erklärt, worauf es bei der Suche ankommt.

  • Grundlage für zukunftssichere Rechenzentren

    Rechenzentren sind das Rückgrat unserer digitalen Welt. Betreiber dieser Infrastrukturen stehen dabei vor immensen Herausforderungen: Sie müssen nicht nur den ununterbrochenen Betrieb und höchste Sicherheitsstandards sicherstellen, sondern auch strengere Umwelt- und Effizienzkriterien einhalten.

  • Cloud-basierte Tests

    Mit der Digitalisierung steigt das Datenvolumen und der Energieverbrauch. Daher stehen Unternehmen jetzt vor der Herausforderung, ihre IT nachhaltiger zu gestalten. Auch das Qualitätsmanagement kann dazu einen wertvollen Beitrag leisten, indem es den CO2-Fußabdruck von Software verringert.

  • Was ist der richtige Cloud-Speicher für KMU?

    Verschiedene Arten von Unternehmen haben unterschiedliche IT-Anforderungen. So haben kleine und mittelständische Unternehmen natürlich nicht die gleichen Anforderungen wie große internationale Unternehmen.

  • ITAM on-premises versus Software-as-a-Service

    IT Asset Management (ITAM) schafft die Basis für Cybersecurity, Kostenkontrolle und effizientes IT-Management. Doch vor allem im Mittelstand fehlen häufig Manpower und Expertise, eine ITAM-Lösung inhouse zu betreiben. Software-as-a-Service-Angebote versprechen Abhilfe.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen