Banner Aktuelle IT-Sicherheit Online-Schulungen Rabatt
Mit <kes>+ lesen

Kostentreiber KI?! : Strategie-Tipps zur Leistungs- und Kostenoptimierung

Künstliche Intelligenz (KI) soll vieles schneller machen und nicht zuletzt auch Kosten sparen. Doch ohne akkurate Steuerung kann der Einsatz von KI sogar selbst zum Kostentreiber werden, warnt unser Autor – und liefert Empfehlungen, wie sich das vermeiden lässt.

Unternehmen nutzen vermehrt künstliche Intelligenz (KI) zur Optimierung ihrer operativen Effizienz und Produktinnovation. Eine aktuelle Umfrage [1] des Beratungsunternehmens McKinsey zeigt, dass 40 % der befragten Unternehmen aufgrund der rapiden Fortschritte im Bereich der generativen KI ihre Investitionen in KI-Technologie generell erhöhen wollen. Ein Nachteil des zunehmenden Einsatzes ist jedoch, dass KI – besonders generative KI – rechenintensiv ist und die Kosten mit der Menge der Daten steigen, auf denen KI-Modelle trainiert werden.

Es gibt drei Hauptgründe, weshalb KI sich ohne entsprechende Kontrolle rasch zu einem Kostentreiber entwickeln kann:

  • KI verbraucht zusätzliche Cloud-Ressourcen: Die Ausführung von KI-Modellen und die Abfrage von Daten erfordert große Mengen an Rechenressourcen in der Cloud, was zu höheren Cloud-Kosten führt.
  • KI erfordert mehr Rechenleistung und Speicherplatz: Das Trainieren von KI-Daten ist ressourcenintensiv und kostspielig aufgrund der erhöhten Anforderungen an Rechenleistung und Speicherplatz.
  • KI führt häufige Datenübertragungen durch: Da KI-Anwendungen häufige Datenübertragungen zwischen Edge-Geräten und Cloud-Anbietern erfordern, können zusätzliche Kosten für die Datenübertragung entstehen.

Wenn Unternehmen mit ihrer KI-Einführung erfolgreich sein wollen, müssen sie die Ursachen steigender Kosten verstehen und optimieren. Dies kann durch die Einführung einer soliden FinOps-Strategie geschehen, einem Konzept für die Verwaltung von Public Clouds, das darauf abzielt, durch deren Nutzung entstehende Kosten zu kontrollieren, und bei dem die Bereiche „Finanzen“ und „DevOps“ aufeinandertreffen. Darüber hinaus sollten Unternehmen die Observability von KI durch KI berücksichtigen.

KI-Observability

KI-Observability ist der Einsatz künstlicher Intelligenz zur Erfassung von Leistungs- und Kostendaten, die von verschiedenen Systemen in einer IT-Umgebung erzeugt werden. Darüber hinaus liefert das Verfahren IT-Teams idealerweise Empfehlungen, wie sie diese Kosten eindämmen können. So kann die KI-Observability die FinOps-Initiativen in der Cloud auch unterstützen, indem sie aufzeigt, wie die Einführung von KI die Kosten aufgrund der erhöhten Nutzung von Speicher- und Rechenressourcen in die Höhe treibt.

Da die KI-Observability die Ressourcennutzung in allen Phasen des KI-Betriebs – vom Modelltraining über die Inferenz bis hin zur Nachverfolgung der Modellleistung – überwacht, können Unternehmen ein optimales Gleichgewicht zwischen der Genauigkeit ihrer KI-Ergebnisse und der effizienten Nutzung der Ressourcen herstellen und somit die Betriebskosten optimieren.

Best Practices für die Optimierung der KI-Kosten

Die folgenden Punkte können derzeit als Best Practices gelten, um die durch KI entstehenden Kosten mithilfe von FinOps sowie KI-Observability im Griff zu behalten:

  • Cloud- und Edge-basierter Ansatz für KI: Cloudbasierte KI ermöglicht es Unternehmen, KI in der Cloud auszuführen, ohne dass sie sich um die Verwaltung, Bereitstellung oder Unterbringung von Servern kümmern müssen. Mit Edge-basierter KI lassen sich KI-Funktionen auf Edge-Geräten wie Smartphones, Kameras oder sogar Sensoren ausführen, ohne dass die Daten in die Cloud übertragen werden müssen. Durch die Einführung eines Cloud- und Edge-basierten KI-Ansatzes können IT-Teams somit von der Flexibilität, Skalierbarkeit und dem Payper-Use-Modell der Cloud profitieren und gleichzeitig die Latenz, Bandbreite und Kosten für das Senden von KI-Daten an cloudbasierte Prozesse reduzieren.
  • Containerisierung: Eine Containerisierung ermöglicht es, KI-Anwendungen und Abhängigkeiten in eine einzige logische Einheit zu verpacken, die auf jedem Server mit den erforderlichen Abhängigkeiten problemlos bereitgestellt werden kann. Anstatt die Infrastruktur statisch auf Spitzenlasten einzustellen, können Unternehmen so eine dynamisch skalierbare Container-Infrastruktur für KI-Anwendungen nutzen und gleichzeitig Kosten optimieren.
  • Kontinuierliche Überwachung der Leistung von KI-Modellen: Sobald ein Unternehmen KI-Modelle auf Grundlage seiner Daten trainiert, ist es wichtig, die Qualität und Effektivität des Algorithmus kontinuierlich zu überwachen. Diese Überwachung von KI-Modellen hilft dabei, Bereiche mit Verbesserungsbedarf und „Drift“ zu identifizieren, denn im Laufe der Zeit ist davon auszugehen, dass KI-Modelle oft von den realen Bedingungen abweichen und dadurch ungenauer werden. IT-Teams müssen diese Modelle dann gegebenenfalls anpassen, um neue Datenpunkte zu erfassen. Dazu muss man jedoch die Abnahme der Vorhersagekraft als Ergebnis von Veränderungen in realen Umgebungen überwachen, die in den Modellen (ggf. noch) nicht berücksichtigt wurden.
  • Optimierung von KI-Modellen: Diese Aufgabe geht Hand in Hand mit der kontinuierlichen Überwachung der Modelle. Es geht darum, die Genauigkeit, Effizienz und Zuverlässigkeit der KI eines Unternehmens zu optimieren, indem man Techniken wie Datenbereinigung, Modellkomprimierung und Daten-Observability einsetzt, um Präzision und Aktualität der KI-Ergebnisse zu gewährleisten. Die Optimierung von KI-Modellen kann helfen, Rechenressourcen, Speicherplatz, Bandbreite und Energiekosten zu sparen.
  • Proaktives Management des KI-Lebenszyklus: Zu den Aufgaben eines mit KI betrauten IT-Teams gehören typischerweise das Erstellen, Bereitstellen, Überwachen und Aktualisieren von KI-Anwendungen. Die ganzheitliche Verwaltung des KI-Lebenszyklus gewährleistet, dass KIAnwendungen stets funktionsfähig, sicher, konform mit Compliance-Vorgaben und relevant sind. Hierbei hilft der Einsatz von Tools und Verfahren zur Protokollierung, zum Auditing, Debugging und Patching. Die Verwaltung des vollständigen KI-Lebenszyklus hilft, technische Probleme, ethische Dilemmas, rechtliche Komplikationen und Geschäftsrisiken zu vermeiden.
  • Generative KI in Verbindung mit anderen Verfahren: Generative KI ist ein leistungsstarkes Werkzeug – ihr volles Potenzial entfaltet sie jedoch erst in der Kombination mit prädiktiver und kausaler KI. Prädiktive KI nutzt maschinelles Lernen, um Muster in vergangenen Ereignissen zu erkennen und Vorhersagen über zukünftige Ereignisse zu treffen. Kausale KI ermöglicht die Ermittlung der genauen Ursachen und Auswirkungen von Ereignissen oder Verhaltensweisen. Kausale KI ist entscheidend, um die Algorithmen, die der generativen KI zugrunde liegen, mit qualitativ hochwertigen Daten zu versorgen. Sogenannte Composite AI bringt kausale, generative und prädiktive KI zusammen, um die kollektiven Erkenntnisse aller drei Verfahren zu verbessern: Bei Composite AI trifft die Präzision der kausalen KI auf die Vorhersagefähigkeiten der prädiktiven KI, um einen wesentlichen Kontext für generative KI-Prompts zu liefern.

Fazit

Die Einführung von KI ermöglicht Unternehmen mehr Effizienz und Innovation, birgt aber gleichzeitig die Gefahr ausufernder Kosten. Daher sollten Unternehmen ihre KI-Modelle proaktiv überwachen und verwalten, um sowohl die Datengenauigkeit als auch die Kosteneffizienz ihrer KI-Modelle sicherzustellen. Eine Gesamtstrategie, die FinOps und KI-Observability einbezieht, kann Unternehmen dabei unterstützen, die Leistung und Kosten ihrer Systeme stets genau im Blick zu behalten.

Christian Grimm ist Director Sales Engineering EMEA Central bei Dynatrace.

Literatur

[1] Michael Chui, Lareina Yee, Bryce Hall, Alex Singla, Alexander Sukharevsky, The state of AI in 2023: Generative AI’s breakout year, McKinsey Survey, August 2023, www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai-in-2023-generative-ais-breakout-year

Diesen Beitrag teilen: