Sie sind hier: Startseite » Markt » Tipps und Hinweise

KI-gestützte Observability und Automatisierung


Full-Stack Observability ist mittlerweile nahezu unumgänglich für Unternehmen, die Innovationen in zunehmend Cloud-nativen Umgebungen bereitstellen müssen
Vereinfachung komplexer IT-Umgebungen durch Full-Stack Observability


Von Andreas Grabner, CNCF Ambassador and Dynatrace DevRel

Unternehmen kämpfen mit der zunehmenden Komplexität der Cloud. IT-Teams brauchen daher neue Möglichkeiten, um Probleme über den gesamten Technologie-Stack hinweg – von Mainframes bis hin zu Multi-Cloud-Umgebungen – zu erkennen und auf sie reagieren zu können: "Full-Stack Observability". Diesen umfassenden Überblick zu erhalten, ist auch deshalb unverzichtbar, weil Unternehmen innovative Lösungen zunehmend in Cloud-nativen Umgebungen entwickeln. Doch wie funktioniert Full-Stack Observability? Welche Vorteile bietet die Technologie bezüglich der Cybersicherheit und der Automatisierung manueller Prozesse?

Jeden Endpunkt sehen
Full-Stack Observability beschreibt die Fähigkeit, den Zustand jedes Endpunkts in einer verteilten IT-Umgebung auf der Grundlage seiner Telemetriedaten zu bestimmen. Zu den Endpunkten gehören lokale Server, Kubernetes-Infrastrukturen, in der Cloud gehostete Infrastrukturen und Dienste sowie Open-Source-Technologien. Durch die Observability des gesamten Technologie-Stacks erhalten IT-Teams einen umfassenden Echtzeit-Einblick in das Verhalten, die Leistung und den Zustand von Anwendungen und der zugrunde liegenden Infrastruktur.

Observability-Lösungen nutzen Telemetriedaten wie Protokolle, Metriken und Traces, um IT-Verantwortlichen Einblicke in die Anwendungs- und Infrastruktur-Performance sowie die tatsächliche Nutzererfahrung zu geben. Dieser Kontext ermöglicht es auch nachzuvollziehen, wie all diese Einheiten miteinander verbunden sind Dabei geht es nicht nur um Infrastrukturverbindungen, sondern auch um die Beziehungen und Abhängigkeiten zwischen Containern, Microservices und Code auf allen Netzwerkschichten.

Eine umfassende Observability ist nicht zuletzt unerlässlich für das Digital Experience Monitoring (DEM). Hierdurch kann die grundlegende Nutzererfahrung ermittelt werden. Fachkräfte können die Ladezeiten von Webseiten, Reaktionszeiten von Webapplikationen beim Endanwender optimieren und die Latenz verringern. Die schnelle Behebung von Problemen sorgt so zum Beispiel bei Webshops für ein positives Kundenerlebnis und einen ungestörten Einkauf.

Warum Observability des gesamten Systems wichtig ist
Cloud-Umgebungen stellen die IT vor viel komplexere Herausforderungen als traditionelle, lokale Rechenzentren. Als Reaktion darauf fügen viele Unternehmen weitere Überwachungstools hinzu. Doch unter Umständen erhöht die Vielzahl an Tools die Komplexität noch weiter und verlangsamt sogar die Reaktion auf Probleme, weil die Übersicht fehlt.

Wenn die IT-Teams ihre Tools in getrennten Silos verwenden, fehlt ihnen ein vollständiges Bild der Aktivitäten. Ohne eine zentralisierte Quelle, in der alle relevanten Informationen zusammengeführt werden, haben selbst die besten Fachkräfte oft Schwierigkeiten, dringende geschäftskritische Probleme zu verstehen und effizient zu lösen.

Observability ändert dies. Es bietet über eine zentralisierte Plattform Einblick in jede Schicht der Anwendungsinfrastruktur und reduziert so den Wildwuchs an Überwachungstools, der mit hohen Kosten und Ineffizienz einhergeht. DevOps-Teams profitieren ganz besonders von der Observability des vollständigen Technologie-Stacks. Sie erhalten genaues Echtzeit-Feedback von Integrations- oder Produktionssystemen und können somit Probleme hinsichtlich der Nutzererfahrung und Anwendungsleistung schneller lösen. Dank verbesserter Diagnose- und Analysefunktionen verbringen DevOps-Teams weniger Zeit mit der Fehlersuche und können stattdessen ihre Expertise für die Entwicklung neuer Funktionen einsetzen, von denen Benutzer profitieren.

Sechs Vorteile von Full-Stack Observability im Überblick

1. Bewusstsein für die gesamte Umgebung:
Viele Unternehmen haben heute eine Multi-Cloud-Umgebung. Observability bietet einen durchgängigen Einblick in die Gesamtheit der Anwendungsumgebung und beseitigt blinde Flecken in Bezug auf Leistung, Zustand und Verhalten aller Applikationen. Ohne vollständige Observability haben Fachkräfte bestenfalls ein partielles Verständnis ihrer Anwendungsinfrastruktur.

2. Präzise Ursachenermittlung und Priorisierung von Problemen: IT- und DevOps-Teams verschwenden keine Zeit mit dem Durchforsten von Daten und der Interpretation von Statistiken. Mithilfe von Observability können sie schnell die grundlegenden Ursachen identifizieren und Probleme gemäß den Auswirkungen auf Benutzer und Unternehmen priorisieren.

3. Beschleunigung und Automatisierung der CI/CD-Pipeline: Full-Stack Observability hilft DevOps-Teams, potenzielle Probleme in der CI/CD-Pipeline (Continuous Integration und Continuous Delivery) rasch zu identifizieren und schneller zu beheben. So kann neue Software schneller in Produktion genommen werden, Unternehmen steigern ihre Innovationsgeschwindigkeit und profitieren schneller von der Umsetzung guter Ideen.

4. Integration von Runtime-Application-Security in DevSecOps: Sicherheitsteams müssen Risiken adressieren und managen. Deshalb werden sie von anderen IT-Teams oft als Innovationsbremse wahrgenommen. Full-Stack Observability beseitigt diese interne Konfliktkonstellation, weil sie IT-Teams ermöglicht, die Runtime-Application-Security effektiver in DevSecOps-Prozesse zu integrieren. So können die IT-Mitarbeiter die Geschäftsziele unterstützen, ohne die Sicherheit zu gefährden.

5. Bessere Geschäftsentscheidungen mit präziser Analytik: Wenn IT-Teams und Fachabteilungen nicht Hand in Hand arbeiten, ist es für Unternehmen schwierig, geschäftskritische Entscheidungen zu treffen. Observability sorgt für die nötige Transparenz, damit alle Beteiligten einen gemeinsamen Bezugsrahmen haben und sich auf geschäftliche Prioritäten einigen können.

6. Beseitigung operativer Silos und Optimierung der Zusammenarbeit: Mit einer zentralisierten Quelle aller relevanten Informationen für die Ursachenanalyse können sich IT- und DevOps-Teams schnell darüber verständigen, was getan werden muss, um eine gute Funktion zu gewährleisten und wer dafür verantwortlich ist. Dies verbessert die abteilungsübergreifenden Arbeitsbeziehungen und sorgt für eine flüssige interne Zusammenarbeit.

Die Komplexität der Cloud hat den Einblick in das gesamte System erschwert. Doch mit einer zentralisierten Plattform, die die Überwachung über den gesamten Technologie-Stack hinweg automatisiert, können Unternehmen alle erforderlichen Betriebs- und Business-Performance-Metriken erhalten, vom Front-End bis zum Back-End und zu allem, was dazwischen liegt. Hier wirkt auch Künstliche Intelligenz Wunder: Sobald ein System alle erforderlichen Telemetriedaten zusammenführt, kann deterministische KI schnell aufzeigen, was wichtig ist und weshalb. Dann fällt es Fachkräften leicht, die richtigen Maßnahmen zu ergreifen. Der Einsatz von KI für den IT-Betrieb (AIOps) hilft nicht nur dabei, die Informationsflut im IT-Betrieb zu beherrschen, sondern auch die Effizienz und Innovationsgeschwindigkeit zu erhöhen. AIOps ermöglichen eine automatisierte Ursachenanalyse, sodass IT-Teams sich auf übergeordnete Aufgaben konzentrieren können, statt sich in der Suche nach Fehlern zu verlieren.

Durch die Observability des gesamten Systems können Unternehmen alles durchblicken - von der Erfahrung des Endanwenders bis hin zum Zustand der Infrastruktur, inklusive aller Beziehungen und Abhängigkeiten zwischen den einzelnen Schichten, Komponenten oder Codeteilen. Dies unterstützt Unternehmen dabei, ihre digitale Transformation schneller, einfacher und intelligenter gestalten. (Dynatrace: ra)

eingetragen: 07.12.23
Newsletterlauf: 26.02.24

Dynatrace: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>


Meldungen: Tipps und Hinweise

  • Sicher modernisieren & Daten schützen

    Viele Unternehmen haben die Cloud-Migration ihrer SAP-Landschaften lange Zeit aufgeschoben. ERP-Anwendungslandschaften, sind über viele Jahre hinweg gewachsen, die Verflechtungen vielfältig, die Datenmengen enorm und die Abhängigkeit der Business Continuity von diesen Systemen gigantisch. Dennoch: Der Druck zur ERP-Modernisierung steigt und viele Unternehmen werden 2025 das Projekt Cloud-Migration mit RISE with SAP angehen.

  • Was tun mit ausgedienten Rechenzentren?

    Rund um die Jahrtausendwende begann in Deutschland ein wahrer Bauboom für Datacenter und Colocation-Flächen. Viele dieser Anlagen befinden sich auch heute noch in Betrieb. Doch die rasante Entwicklung der Informationstechnologie führt dazu, dass Rechenzentren in immer kürzeren Abständen modernisiert oder ersetzt werden müssen. Denn wann immer ein Betreiber den Spatenstich für ein neues Datacenter feiert, dürfen die Begriffe "Nachhaltigkeit" und "Umweltschutz" nicht fehlen.

  • Tipps für MSPs im Jahr 2025

    Ob durch technologische Innovationen, geschicktes Marketing oder eine starke Unternehmenskultur - mit den richtigen Maßnahmen können MSPs im Jahr 2025 nicht nur ihre Wettbewerbsfähigkeit steigern, sondern auch langfristig wachsen. Hier sind acht Tipps, die ihnen dabei helfen, das Jahr erfolgreich zu gestalten.

  • KI-Logik in der Unternehmenssoftware

    Für Unternehmen stellt sich nicht mehr die Frage, ob, sondern wie sie Künstliche Intelligenz für ihren Business Case nutzen. Der meist aufwändigen Implementierung von KI-Tools in bestehende Systeme sagt innovative Software jetzt den Kampf an - mit bereits in die Lösung eingebetteter KI. IFS, Anbieterin von Cloud-Business-Software, zeigt, wie Unternehmen anstatt der schwerfälligen Integration von externen Tools ein technologisches Komplettpaket erhalten, das sofort einsatzfähig ist.

  • Schutz von Cloud-Daten

    In der aktuellen Umfrage "2024 State of Cloud Strategy Survey" geben 79 Prozent der Befragten in Unternehmen an, dass sie Multicloud im Einsatz haben oder die Implementierung von Multicloud planen. Die Chancen stehen also gut, dass Multicloud-Strategien weiter zunehmen werden, wenngleich das nicht bedeutet, dass lokale und private Clouds verschwinden.

  • Das Herzstück des Betriebs

    Salt Typhoon mag ein Weckruf sein, aber es ist auch eine Gelegenheit, die Abwehrkräfte zu stärken und Unternehmen gegen aufkommende Bedrohungen zukunftssicher zu machen. Der Angriff hat Schwachstellen im Telekommunikations- und ISP-Sektor aufgedeckt, aber die daraus gezogenen Lehren gehen weit über eine einzelne Branche hinaus. Ob Telekommunikationsunternehmen, Internetdienstanbieter, SaaS-abhängiges Unternehmen oder Multi-Cloud-Unternehmen - Datensicherung muss für alle oberste Priorität haben.

  • Optimale Wissensspeicher

    Graphdatenbanken sind leistungsstarke Werkzeuge, um komplexe Daten-Beziehungen darzustellen und vernetzte Informationen schnell zu analysieren. Doch jeder Datenbanktyp hat spezifische Eigenschaften und eignet sich für andere Anwendungsfälle. Welche Graphdatenbank ist also wann die richtige? Aerospike empfiehlt Unternehmen, ihre Anforderungen unter vier Gesichtspunkten zu prüfen.

  • Zugang zu anfälligen Cloud-Hosts

    Zwischen 2023 und 2024 haben laut einer aktuellen Studie 79 Prozent der Finanzeinrichtungen weltweit mindestens einen Cyberangriff identifiziert (2023: 68 Prozent). Hierzulande berichtet die BaFin, dass 2023 235 Meldungen über schwerwiegende IT-Probleme eingegangen sind. Fünf Prozent davon gehen auf die Kappe von Cyberangreifern.

  • Wachsende SaaS-Bedrohungen

    Die jüngsten Enthüllungen über den massiven Cyberangriff von Salt Typhoon auf globale Telekommunikationsnetzwerke sind eine deutliche Erinnerung an die sich entwickelnde und ausgeklügelte Natur von Cyberbedrohungen. Während die Angreifer sich darauf konzentrierten, Kommunikation abzufangen und sensible Daten zu entwenden, werfen ihre Handlungen ein Schlaglicht auf ein umfassenderes, dringenderes Problem: die Unzulänglichkeit traditioneller Datensicherungsmethoden beim Schutz kritischer Infrastrukturen.

  • Einführung des Zero-Trust-Frameworks

    Die Cyber-Sicherheit entwickelt sich mit rasanter Geschwindigkeit, weshalb eine traditionelle Verteidigung den Anforderungen nicht mehr gerecht wird. Moderne Cyber-Bedrohungen bewegen sich inzwischen mühelos seitlich innerhalb von Netzwerken und nutzen Schwachstellen aus, die mit traditionellen Perimeter-Schutzmaßnahmen nicht vollständig behoben werden können.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen