Banner Aktuelle IT-Sicherheit Online-Schulungen Rabatt
Free

Monitoring-Chaos entwirren: Unified Observability als Lösungsansatz

Chaos in der IT-Landschaft? Zu viele Monitoring-Tools erschweren den Überblick. Unified Observability schafft hier Ordnung: konsolidierte Daten, präzise Analysen, schnelle Lösungen.

Unternehmen sehen sich heute mit einer ständig wachsenden Datenflut konfrontiert. Zudem kämpfen viele mit einer Vielzahl unterschiedlicher Monitoring-Tools, um diese Datenmengen zu bewältigen und für fundierte Entscheidungen aufzubereiten. Die Überwachung dieser Tools und die daraus resultierenden Datensilos erschweren es den Unternehmen jedoch zunehmend, die Performance und Verfügbarkeit ihrer Anwendungen zu optimieren.

Das Problem des Tool-Wildwuchses

Beim sogenannten „Tool Sprawl“ setzen Unternehmen häufig eine Vielzahl unterschiedlicher IT-Werkzeuge ein, die jeweils für bestimmte Anwendungsfälle konzipiert sind. Diese Situation tritt häufig auf, wenn Unternehmen Multi-Cloud-Umgebungen für verschiedene Business Services einführen. Die Datenflut in diesen Umgebungen zwingt die Fachkräfte dazu, nach effizienten Methoden zur Verwaltung dieser Daten zu suchen. Infolgedessen greifen sie für jeden Anwendungsfall auf ein anderes Tool zu.

Diese Tools und Services sind oft isoliert und sowohl aus finanzieller als auch aus Produktivitätssicht teuer. Denn sind beispielsweise zehn verschiedene Tools im Einsatz, müssen Fachkräfte sich in die Funktionsweise jedes dieser Applikationen einarbeiten, sich hierzu kontinuierlich weiterbilden, sicherstellen, dass jede Software auf dem neuesten Stand ist, Schwachstellen beheben und mehr.

Dieser Aufwand für Verwaltung und Wartung beansprucht Zeit und Ressourcen, die eigentlich für wichtigere Aufgaben genutzt werden könnten. Eine fragmentierte Tool-Landschaft führt zu inkonsistenten Datenanalysen, erhöhtem manuellen Aufwand und nicht optimal koordinierten Teams. Die Datensilos, die in Storage-Repositories und Monitoring-Tools verschiedener Teams existieren, fehlt der Kontext, der die Beziehungen und Abhängigkeiten in hybriden und Multi-Cloud-Ökosystemen widerspiegelt. Ohne diesen Kontext ist es schwierig, zwischen den Symptomen und der Ursache eines Problems zu unterscheiden, was dazu führt, dass Zeit mit der Nachverfolgung von Fehl- und doppelten Alarmen oder Problemen mit niedriger Priorität verschwendet wird.

Hinzu kommt, dass in stark regulierten Branchen wie dem Finanzsektor und dem Gesundheitswesen die Einhaltung der Daten-Governance und Datenschutz der Tool-Wildwuchs eine besondere Herausforderung mit sich bringt. Und dennoch setzen viele Unternehmen für ihr Monitoring immer noch mehrere Tools und Software-Services ein. Laut einer aktuellen Studie von Dynatrace umfasst die durchschnittliche Multi-Cloud-Umgebung zwölf verschiedene Plattformen und Services.

Vom traditionellen Monitoring zum Unified Observability

Der Wechsel vom traditionellen Monitoring hin zu einer umfassenden Observability unterstützt Unternehmen dabei, die oben genannten Herausforderungen zu bewältigen, die durch Tool-Wildwuchs entstanden sind. Oft wird Monitoring und Observability gleichgesetzt, jedoch gibt es wichtige Unterschiede. Während beide Systeme Daten sammeln, analysieren und nutzen, um den Fortschritt einer Anwendung oder eines Dienstes zu verfolgen, geht Observability einen Schritt weiter und hilft Fachkräften zu verstehen, was in einer Multi-Cloud-Umgebung im Kontext passiert.

Durch die Sammlung von Telemetriedaten von Endpunkten und Diensten, gekoppelt mit speziellen Analysefunktionen, ermöglicht eine Observability-Lösung, den Zustand, die Leistung und das Verhalten eines Systems zu messen. Teams können Einblicke in ihre lokalen, hybriden und Multi-Cloud-Systeme gewinnen und analysieren, wie sich Anpassungen an oder innerhalb dieser Technologien – selbst kleinste Änderungen an Microservices, Code oder neu entdeckte Sicherheitslücken – auf die Erfahrungen der Endbenutzer und die Business Perfomance auswirken.

Observability basiert im ersten Schritt auf den folgenden drei Grundpfeilern:

  • Logs: Eine Aufzeichnung der Vorgänge innerhalb der Software
  • Metriken: Zählungen, Messungen und Berechnungen zur Anwendungsleistung und Ressourcennutzung
  • Traces: Der Weg, den eine Transaktion durch Anwendungen, Dienste und Infrastruktur eines Systems von einem Knoten zum anderen nimmt

Neben den klassischen drei Säulen umfassen die Observability-Daten auch Ereignisse und andere Signale, die von den Komponenten und Diensten des Systems erzeugt werden.

Observability ist jedoch nicht gleich Observability. Moderne Observability erfordert einen ganzheitlichen Ansatz für das Sammeln, Verarbeiten und Analysieren von Daten. Dieser muss über Protokolle, Metriken und Traces hinausgehen und sich auf die Sicherheit, Benutzererfahrung und geschäftlichen Auswirkungen konzentrieren. Im Folgenden finden sich die wichtigsten Kriterien, die eine Observability-Lösung erfüllen sollte:

  • Eine einheitliche Analyse- und Automatisierungsplattform für Observability-, Security- und Business-Daten
  • Die Erfassung und Verarbeitung aller Daten aus allen Quellen unter Beibehaltung des Kontexts hinsichtlich deren Topologie und Abhängigkeiten
  • Die Bereitstellung kostengünstiger und skalierbarer Datenanalytik
  • KI als Kernstück der Plattform, die mehrere Techniken wie vorhersagende, kausale und generative KI umfasst
  • Die Fähigkeit einer zuverlässigen Automatisierung von Geschäfts-, Entwicklungs-, Sicherheits- und Betriebsabläufen
  • Die Fähigkeit, Sicherheitsschwachstellen in Umgebungen während des laufenden Betriebs zu erkennen und zu beheben, Angriffe in Echtzeit zu blockieren und datengesteuerte Sicherheitsanalysen durchzuführen
  • Die Erweiterbarkeit zur Nutzung von Observability-, Security- und Business-Daten, um benutzerdefinierte digitale Geschäftsanwendungen zu unterstützen

Moderne Observability bietet eine datengestützte Methodik für den gesamten Software-Lebenszyklus. Sie zentralisiert alle Telemetriedaten von Metrics und Events über Logs bis hin zu Traces in einer zentralen Plattform. Dadurch können Unternehmen die Datenerfassung und -analyse optimieren, die Zusammenarbeit zwischen Teams verbessern, die Mean-Time-To-Repair reduzieren und die Anwendungsleistung sowie -verfügbarkeit steigern. Gleichzeitig werden Probleme behoben, die durch den Einsatz zu vieler unterschiedlicher Monitoring-Tools verursacht wurden, indem Datensilos aufgelöst und der Verwaltungsaufwand deutlich reduziert werden.

 

Alexander Zachow ist Regional Vice President EMEA Central bei Dynatrace.

Weitere Artikel zum Thema: 

Gemeinsam zur Resilienz

Gut geplant in die Cloud

https://www.kes-informationssicherheit.de/print/titelthema-ultraschallkommunikation/bestandsaufnahme-risikomanagement-1/