Der Aufstieg der „Agentic Enterprise“ : Wie sich künstliche Intelligenz von reaktiven Modellen in proaktive Agenten verwandelt
Im Zuge der rasanten Entwicklung künstlicher Intelligenz (KI) zeichnet sich ein fundamentaler Wandel ab: von einem reaktiven Werkzeug hin zu einem proaktiven Akteur in Unternehmensprozessen. Dieser durch bahnbrechende Fortschritte in der Forschung getriebene Paradigmenwechsel verändert die Art und Weise, wie wir über Automatisierung und Wertschöpfung denken sollten, betont unser Autor: Künftig gehe es nicht mehr nur darum, Daten zu analysieren, sondern darum, Systeme zu schaffen, die Ziele verstehen, Pläne entwickeln und eigenständig handeln, um diese Ziele zu erreichen.
Die Arbeitsweise in Unternehmen verändert sich grundlegend: Künstliche Intelligenz (KI) wird nicht mehr nur unterstützend eingesetzt – sie übernimmt komplexe Aufgaben, organisiert Informationen, reagiert auf vielschichtige Anforderungen und handelt zunehmend autonom. Wir treten in eine Ära ein, die man als die „Agentic Cooperation“ bezeichnen könnte: In diesem Konzept agieren KI-Agenten als intelligente Knotenpunkte, die mit Menschen, bestehenden IT-Systemen und anderen Agenten interagieren, um Daten auszuwerten, Entscheidungen vorzubereiten und neue Handlungsspielräume zu erschließen. Sie werden zu einem integralen Bestandteil der digitalen Infrastruktur, die Arbeitsabläufe nicht nur beschleunigen, sondern fundamental neu gestalten.
Technologische Basis
Die Leistungsfähigkeit dieser neuen Agentensysteme wird maßgeblich durch die zugrunde liegenden KI Modelle bestimmt. Die jüngste Generation sogenannter Multimodal Foundation-Models zeichnet sich durch fundamental verbesserte Reasoning-Fähigkeiten aus: Solche multimodalen Grundlagenmodelle besitzen erweiterte „Denkfähigkeiten“ und sind nicht länger auf die Verarbeitung einer einzigen Datenart wie Text beschränkt. Stattdessen wurden sie von Grund auf so konzipiert, dass sie Informationen aus Text, Bild, Audio und Video nahtlos und nativ kombinieren und in einen übergreifenden Kontext setzen können.
Ein entscheidender Durchbruch liegt in ihrer Fähigkeit, komplexe Anfragen in logische Zwischenschritte zu zerlegen, Informationen zu reflektieren und strukturierte Pläne zu erstellen, bevor eine Antwort generiert wird. Besonders beeindruckend sind Modelle mit extrem langen Kontextfenstern, die in der Lage sind, Millionen von Informationseinheiten – seien es Codezeilen, Transkriptionen oder wissenschaftliche Abhandlungen – als Ganzes zu verarbeiten. Dies ermöglicht eine tiefgreifende Analyse und ein Verständnis, das weit über die reine Mustererkennung hinausgeht und die Grundlage für echtes schlussfolgerndes Denken legt.
Ein weiterer architektonischer Fortschritt ist der Einsatz von Mixture-of-Experts-(MoE)-Ansätzen: Anstatt bei jeder Anfrage ein riesiges, monolithisches neuronales Netz zu aktivieren, werden hier dynamisch nur die relevantesten „Experten-Teilnetze“ genutzt. Das führt zu einer drastisch höheren Effizienz, geringeren Latenzzeiten und ermöglicht es, noch leistungsfähigere Modelle kosteneffizient zu betreiben.
Zwei Denkweisen von KI
Um die Tragweite der aktuellen KI-Entwicklung zu erfassen, muss man zunächst eine menschliche Denkfalle überwinden: unsere lineare Intuition. Die Fortschritte in der KI folgen jedoch einer exponentiellen Kurve: Das klassische Beispiel von Reiskörnern auf einem Schachbrett – ein Korn auf dem ersten Feld, zwei auf dem zweiten, vier auf dem dritten, … – illustriert dies perfekt. Während die erste Hälfte des Bretts eine überschaubare Menge ergibt, übersteigt die Reismenge auf der zweiten Hälfte unsere Vorstellungskraft. Wir befinden uns bei der KI-Entwicklung gerade am Anfang dieser zweiten Hälfte, weshalb die Durchbrüche so plötzlich und fundamental erscheinen.
Um die Geschwindigkeit des Fortschritts intuitiv verstehen zu können, ist es besonders wichtig, dass man sich regelmäßig mit den neuesten Frontier-Modellen auseinandersetzt, indem man sie gelegentlich mit komplexen und kognitiv hoch anspruchsvollen Aufgaben konfrontiert. Viele werden überrascht sein, was sich an der Spitze der Forschung bereits getan hat und welche enormen Fortschritte die neuesten Large Language-Models (LLMs) im Vergleich zu früheren Generationen bereits durchlaufen haben. Die meisten Menschen erleben früher oder später ihren „Oha!“-Moment, der ihre Sicht auf das (Disruptions-) Potenzial dieser noch sehr jungen technologischen Revolution nachhaltig auf den Kopf stellt.
Im Kern wird die aktuelle Entwicklung von zwei unterschiedlichen, sich aber zunehmend ergänzenden KI-Paradigmen angetrieben:
- Generative Wissens-Synthetisierer (LLMs): Solche Modelle (z.B. die Google Gemini-Familie) sind vergleichbar mit Universalgelehrten, die mehr oder weniger das gesamte niedergeschriebene Wissen der Menscheitsgeschichte gelesen haben. Ihre Stärke liegt in der Synthese, Kombination und kreativen Neuanordnung von Information. Sie verstehen natürliche Sprache, Code sowie visuellen Kontext und können auf dieser Basis neue Inhalte generieren. Sie sind die kreativen Generalisten, deren Fähigkeiten in die Breite gehen.
- Reinforcement-Learning-based Problem-Solver: Diese Modelle (z.B. die Alpha-Reihe) agieren wie geniale Strategiespieler. Anstatt aus bestehenden Daten zu lernen, lernen sie durch aktives Handeln in einer Umgebung mit einem klaren Ziel und definierten Regeln – sei es für das Brettspiel Go oder die Faltung eines Proteins. Durch Millionen von Versuchen entdecken sie oft kontraintuitive, aber „übermenschlich“ gute Lösungsstrategien. Sie sind die hochspezialisierten Meister der Optimierung, deren Fähigkeiten in die Tiefe gehen. Die „Magie“ dieser optimierten Lösungsfindung lässt sich wohl am besten durch die „Move 37“-Anekdote aus einer Go-Partie zwischen AlphaGo gegen Lee Sedol (vgl. [1]) illustrieren, die aufgrund eines unerwarteten kreativen Spielzugs zum geflügelten Wort für das gesamte Phänomen von KI-Fähigkeiten geworden ist, die dem Menschen überlegen sind.
Die wahre Durchschlagskraft, die ein „agentic“ Unternehmen antreibt, entfaltet sich, wenn diese beiden KI-Paradigmen verschmelzen: wo ein kreativer Generalist ein Problem versteht und formuliert und ein spezialisierter Meister die optimale Lösung dafür findet.
KI und exakte Wissenschaften
Die öffentliche Wahrnehmung von KI ist oft durch die Erfahrung mit Chatbots geprägt, die gelegentlich ungenaue oder „halluzinierte“ Antworten geben. Dies verdeckt den Blick auf die vielleicht größte Revolution: den Einsatz von KI in den exakten Wissenschaften, die null Toleranz für Fehler erlauben. Hier agieren KI-Systeme nicht als Sprachkünstler, sondern als unbestechliche Partner für logische und mathematische Entdeckungen, wie die beiden folgenden Beispiele illustrieren.
- Mathematik und Logik: Ein historischer Durchbruch wurde im Juli 2025 erzielt, als eine weiterentwickelte Version von Gemini mit Deep Think offiziell den Goldmedaillen-Standard bei der Internationalen Mathematischen Olympiade (IMO) erreichte [2]. Das System löste fünf von sechs der extrem schwierigen Probleme perfekt und erzielte 35 von 42 möglichen Punkten. Der Präsident der IMO, Prof. Dr. Gregor Dolinar, bestätigte, die Lösungen seien „in vielerlei Hinsicht erstaunlich“ sowie „klar, präzise und größtenteils leicht nachzuvollziehen“. Dieser Erfolg stellt einen gewaltigen Fortschritt dar: Während frühere Systeme noch auf die Übersetzung der Aufgaben in formale, domainspezifische Programmiersprachen angewiesen waren, arbeitete das neue Gemini-Modell vollständig in natürlicher Sprache. Es verstand die offiziellen Problembeschreibungen und erzeugte daraus direkt die fertigen, rigorosen Beweise – und das alles innerhalb des Zeitlimits von 4,5 Stunden. Ermöglicht wurde dies durch den „Deep Think“-Modus, der dem Modell ermöglicht, mittels „parallelem Denken“ mehrere Lösungswege gleichzeitig zu erkunden und zu kombinieren, anstatt nur einem einzigen Gedankengang zu folgen.
- Materialwissenschaft und Chemie: Das Projekt „Graph Networks for Materials Exploration“ (GNoME) nutzte KI bereits 2023, um die Stabilität von Millionen neuer Materialien vorherzusagen ([3], siehe auch Abb. 1). Praktisch bedeutet das: Die KI hat eine Bibliothek mit 2,2 Millionen potenziellen neuen Werkstoffen geschaffen, darunter Kandidaten für Supraleiter oder wesentlich effizientere Festkörperbatterien. Statt jahrelanger Laborversuche können Forscher* nun eine Datenbank abfragen, um das perfekte Material für die nächste Generation von Computerchips oder Solarzellen zu finden – das beschleunigt den Zyklus von der Idee zum Prototyp von Jahren auf Wochen und wird die Grundlage für die Hardware-Revolutionen der nächsten Jahrzehnte sein.
Vom Virtuellen ins Physische
Der visionärste Schritt führt KI aus der rein digitalen Sphäre in unsere physische Realität. Die größte Hürde für universell einsetzbare Roboter war bisher das Training: Es ist langsam, teuer und in der realen Welt voller Risiken. Die Lösung ist eine Brücke aus der virtuellen in die physische Welt, deren Architekten General-Purpose-World-Models wie Genie sind: Solche Systeme können aus einem einzigen Bild oder einer simplen Beschreibung eine interaktive, physikalisch plausible 2D-Welt generieren.
Und das ist mehr als eine technische Spielerei – es erschafft faktisch eine unendliche „Grundschule für Roboter“. Statt eines einzigen teuren Roboters können nun Millionen von KI-Agenten gleichzeitig in Millionen verschiedener, virtueller Umgebungen lernen, wie man eine Tasse greift, eine Treppe steigt oder auf unerwartete Hindernisse reagiert. Dies startet ein sich selbst verstärkendes Schwungrad:
- Simulation: KI-Agenten trainieren Millionen von Stunden in simulierten Welten und lernen grundlegende motorische und logische Fähigkeiten.
- Transfer: Die so geschulten „Gehirne“ (neuronale Netze) werden auf physische Roboter übertragen, die dadurch bereits über eine solide Grundausbildung verfügen.
- Real-World-Feedback: Diese Roboter agieren in der echten Welt – ihre Erfolge, Fehler und Interaktionen werden als wertvolle Daten erfasst. Diese Trainingsmethode nimmt bereits heute eine zentrale Rolle für die Weiterentwicklung autonomer Fahrzeuge ein.
- Verfeinerung: Gewonnene Daten fließen zurück und verbessern nicht nur die KI-Agenten selbst, sondern auch die Simulations-Generatoren, die dadurch noch realistischere Trainingsumgebungen erschaffen.
Für den Alltag bedeutet das, dass wir uns von spezialisierten Industrierobotern, die nur eine einzige Bewegung beherrschen, hin zu universellen Helfern bewegen, die robust auf unbekannte oder sich verändernde Umgebungen reagieren können. Zukünftige Anwendungen reichen von Logistikrobotern, die jedes beliebige Paket handhaben können, über Assistenzsysteme im Haushalt und in der Pflege bis hin zu Robotern, die in Katastrophengebieten oder bei der Erkundung fremder Planeten autonom agieren können.
Universell oder spezialisiert
Die aktuelle Forschung und Entwicklung im Bereich der KI-Agenten folgt zwei komplementären Pfaden: der Vision eines universellen KI-Assistenten und der Implementierung hochspezialisierter, domänenspezifischer Agenten.
Die Vision des universellen Assistenten
Führende Forschungslabore arbeiten an Prototypen für universelle KI-Assistenten, die als allgegenwärtige, proaktive Partner fungieren sollen. Ein solches Beispiel ist das in Entwicklung befindliche Project Astra (vgl. https://deepmind.google/models/project-astra/): ein System, das durch die Kamera eines Smartphones oder einer Brille die Umgebung in Echtzeit wahrnimmt und „versteht“. Es kann sich an zuvor gesehene Objekte erinnern, den Kontext von Gesprächen behalten und nahtlos zwischen visueller und verbaler Interaktion wechseln. Ein solcher Agent könnte nicht nur Fragen beantworten, sondern aktiv auf die Umgebung reagieren, komplexe Probleme lösen (z.B. eine Systemarchitektur auf einem Whiteboard analysieren) und als intuitiver, stets verfügbarer Kollaborationspartner dienen. Diese Vision stellt einen stets verfügbaren Begleiter dar, der in allen Lebenslagen behilflich sein kann – niedrigschwellig in der Bedienung und kompetent wie ein Universalgelehrter.
Spezialisierte Agenten im Unternehmenseinsatz
Während universelle Assistenten noch größtenteils Zukunftsmusik sind, revolutionieren spezialisierte Agenten bereits heute konkrete Geschäftsbereiche.
So wird etwa die nächste Generation der Anwendungsentwicklung maßgeblich durch KI-gestützte Softwareentwicklung mithilfe von Agenten geprägt sein. „Intelligente“ Programmierassistenten sind bereits heute in der Praxis weit mehr als nur Werkzeuge zur Code-Vervollständigung: Im „Agenten-Modus“ können sie komplexe Aufgaben über eine gesamte Codebasis hinweg autonom bearbeiten. Ein Entwickler kann eine Aufgabe in natürlicher Sprache beschreiben – etwa: „Füge eine neue Bezahlmethode hinzu und implementiere die dafür notwendigen API-Endpunkte.“ Der Agent analysiert daraufhin den gesamten vorliegenden Code, erstellt einen detaillierten, schrittweisen Plan und holt sich die Zustimmung des Entwicklers, bevor er den Code schreibt, testet und zur Überprüfung vorlegt. Heutige Forschungsinitiativen zeigen, dass spezialisierte Modelle bereits komplexe algorithmische Probleme auf dem Niveau menschlicher Spitzenprogrammierer lösen können.
Noch fundamentaler wird es mit spezialisierten Ansätzen wie AlphaDev aus dem Jahr 2023, das neue Sortierund Hashing-Algorithmen auf Assembly-Ebene entdeckt und dabei für kurze Sequenzen Effizienzsteigerungen von bis zu 70% erreicht hat [4]. Diese Algorithmen wurden in die Standardbibliothek von C++ aufgenommen – die erste Änderung seit über einem Jahrzehnt.
Parallel dazu entwickelte DeepMind 2025 AlphaEvolve, einen Gemini-basierten evolutionären Coding-Agenten, der noch breiter einsetzbar ist. AlphaEvolve nutzt große Sprachmodelle, um Code iterativ zu verbessern und hat bereits beeindruckende Erfolge erzielt – von der Optimierung von Googles Rechenzentren bis zur Entdeckung neuer mathematischer Algorithmen (vgl. [5]).
Auch diese beiden beispielhaft aufgeführten Systeme zeigen einen selbstverstärkenden Rückkopplungseffekt: KI optimiert grundlegende Algorithmen, was die Effizienz aller Softwaresysteme steigert und so die Basis für noch leistungsfähigere zukünftige KI-Generationen schafft.
Auch bei der Automatisierung im Datenmanagement zeigen sich Fortschritte: Im Herzen vieler Unternehmen – den Data-Warehouses und Analyseplattformen – entstehen neue, hochspezialisierte Agenten. Anstatt komplexe SQL-Abfragen manuell zu schreiben, können Analysten ihre Fragen in natürlicher Sprache stellen. Ein Conversational Analytics-Agent übersetzt die Frage in Code, führt ihn aus, visualisiert die Ergebnisse und beantwortet Folgefragen im Kontext. Ein Data-Science-Agent kann noch einen Schritt weitergehen und eigenständig Python Code für komplexe statistische Analysen oder das Training von Machine-Learning-(ML)-Modellen erstellen. Solche Agenten „demokratisieren“ den Zugang zu Daten und beschleunigen den Weg von der Rohinformation zur geschäftsrelevanten Erkenntnis.
Die vielleicht beeindruckendste Demonstration des Potenzials von KI-Agenten findet man in der wissenschaftlichen Forschung: Systeme wie AlphaFold 3 ermöglichen es beispielsweise Forschern in den Biowissenschaften, die komplexen Interaktionen zwischen Proteinen, DNA und anderen Molekülen mit erstaunlicher Genauigkeit vorherzusagen – das hat das Potenzial, die Entdeckung neuer Medikamente und Therapien radikal zu beschleunigen. Solche Agenten agieren als unermüdliche Forschungsassistenten, die in Minuten Hypothesen testen, für die menschliche Forscherteams Jahre benötigen würden.
Lizenz zum Handeln
Ein leistungsfähiges Modell allein ist jedoch noch kein Agent. Der entscheidende Schritt, der einen Chatbot von einem Agenten unterscheidet, ist, dem Modell die Fähigkeit zu verleihen, Werkzeuge zu nutzen (Tool-Use). Moderne KI-Plattformen ermöglichen es dazu, einem Modell Zugriff auf externe Systeme zu gewähren – seien es Schnittstellen (APIs) von Unternehmensanwendungen, Datenbanken, das Internet oder wiederum andere KI-Modelle.
Ein Agent entsteht, wenn ein KI-Modell eine Aufgabe erhält und selbstständig einen Plan entwickelt, welche Werkzeuge in welcher Reihenfolge genutzt werden müssen, um das Ziel zu erreichen. Dieser Prozess, oft als „ReAct“ (Reasoning and Acting) bezeichnet, ist der Kern agentenbasierter KI: Der Agent analysiert die Anfrage, schlussfolgert, welches Tool er benötigt (z.B. eine Kundendatenbank-API), führt die Aktion aus, beobachtet das Ergebnis und plant auf dieser Basis den nächsten Schritt, bis die Aufgabe gelöst ist.
Standardisierung und Interoperabilität sind das A und O
Der wahre Wert einer „Agentic Enterprise“ wird jedoch nicht durch isolierte Agenten, sondern durch deren reibungsloses Zusammenspiel realisiert. Aus diesem Grund arbeiten große Technologieanbieter an der Schaffung eines umfassenden Ökosystems. Das erfordert offene Plattformen, auf denen Agenten modelliert, trainiert und in bestehende Abläufe eingebunden werden können.
Ein entscheidender Baustein dafür sind standardisierte Protokolle für die Kommunikation zwischen Agenten. Ähnlich wie APIs den Datenaustausch zwischen Softwareanwendungen vermitteln, ermöglichen es Agent-zu-Agent-Protokolle (A2A), dass ein Agent die Fähigkeiten eines anderen Agenten anfragen und nutzen kann. Ein Vertriebsagent könnte so beispielsweise einen Datenanalyseagenten beauftragen, eine Marktanalyse durchzuführen, ohne dessen interne Funktionsweise kennen zu müssen – das schafft ein dynamisches, erweiterbares Netzwerk aus spezialisierten Fähigkeiten.
Autonomie erfordert Verantwortung und Sicherheit
Die zunehmende Autonomie von KI-Agenten wirft unweigerlich auch kritische Fragen zur Sicherheit, Kontrolle (vgl. S. 11) und Ethik auf. Führende Unternehmen der Branche erkennen diese Verantwortung an und investieren massiv in die Entwicklung robuster Sicherheitsmechanismen.
Ein zentraler Aspekt ist die Gewährleistung von Kontrolle und Transparenz: Bevor ein Agent eine komplexe, mehrstufige Aufgabe ausführt, muss er einen verständlichen Plan vorlegen, den ein menschlicher Nutzer erst absegnen muss, bevor der Agent ihn in die Tat umsetzt. Zudem braucht man Mechanismen, um einen Prozess jederzeit unterbrechen oder in einen früheren Zustand zurückversetzen zu können.
Darüber hinaus müssen auf höchster Ebene Governance-Strukturen wie Ethik- und Sicherheitsräte etabliert werden, die sicherstellen sollen, dass die Entwicklung im Einklang mit gesellschaftlichen Werten und Prinzipien wie Fairness, Datenschutz und Sicherheit steht. Die Forschung im Bereich des AI-Alignment – also der Sicherstellung, dass die Ziele eines KI-Systems mit den menschlichen Absichten übereinstimmen – ist hier von zentraler Bedeutung.
Fazit
Die Evolution von isolierten KI-Modellen hin zu vernetzten Agentensystemen markiert einen fundamentalen Wandel in der Nutzung künstlicher Intelligenz. KI Agenten gehen weit über klassische Chatbots hinaus: Sie können eigenständig handeln, kommunizieren und komplexe Aufgaben orchestrieren. Durch leistungsfähige Basismodelle, integrierte Entwicklungsumgebungen und standardisierte Kommunikationsprotokolle werden sie zunehmend zu einem selbstverständlichen Bestandteil der Unternehmensinfrastruktur. Die Integration in bestehende Systemlandschaften und die Verfügbarkeit spezialisierter Werkzeuge bilden die Grundlage für eine neue Ära der KI-Nutzung, in der die Automatisierung von Prozessen und die Steigerung menschlicher Kreativität und Produktivität Hand in Hand gehen.
Dr. Stefan Ebener ist Head of Customer Engineering, EMEA North bei Google Cloud.
Literatur
[1] N. N., AlphaGo, Google Deepmind Research Report, undatiert, https://deepmind.google/research/alphago/
[2] Thang Luong, Edward Lockhart, Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad, Google Deepmind Blog, Juli 2025, https://deepmind.google/blog/advanced-version-of-geminiwith-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
[3] Amil Merchant, Ekin Dogus Cubuk, Millions of new materials discovered with deep learning, Google Deepmind Blog, November 2023, https://deepmind.google/blog/millions-of-new-materials-discovered-withdeep-learning/
[4] Daniel J. Mankowitz, Andrea Michi, AlphaDev discovers faster sorting algorithms, Google Deepmind Blog, Juni 2023, https://deepmind.google/blog/alphadev-discovers-faster-sorting-algorithms/
[5] Dina Genkina, New AI Model Advances the „Kissing Problem“ and More, AlphaEvolve made several mathematical discoveries and practical optimizations, IEEE Spectrum online, Mai 2025, https://spectrum.ieee.org/deepmind-alphaevolve

