Agentic AI in der Unternehmensführung: warum Boards jetzt handeln müssen

Während deutsche Unternehmen beim Einsatz künstlicher Intelligenz noch oft zögern, revolutionieren Google, Salesforce und Microsoft gerade den Markt, indem sie autonome KI-Lösungen vorantreiben. Die Frage für Aufsichtsrät*innen und andere hochrangige Entscheider*innen ist einfach: jetzt strategisch positionieren oder erst später reagieren? Wer jetzt nicht handelt, riskiert Wettbewerbsnachteile, die Fachleuten zufolge bereits in wenigen Monaten nur noch schwer aufholbar sein könnten.

KI-Skeptiker*innen dürften sich bestätigt fühlen: Jüngst berichtete das Technologieportal „Heise“ unter der Schlagzeile „Ernüchterung statt Euphorie“, dass die KI-Nutzung in US-Unternehmen erstmals zurückgeht – bei großen Firmen sank der Einsatz von 14 auf 12 %. Eine MIT-Studie liefert noch dramatischere Zahlen: 95 % der bisherigen KI-Initiativen bringen weder Kosteneinsparungen noch Gewinne.1 Wer darauf gewettet hat, dass der KI-Boom ein vorübergehender Hype ist, könnte jetzt triumphieren.

Doch das wäre ein fataler Trugschluss. Diese Ernüchterung bezieht sich auf reaktive, herkömmliche KI-Tools wie Chatbots, die nur auf Befehle warten. Agentic AI, die nächste Stufe der KI-Evolution mit Autonomie und Entscheidungskraft, ist fundamental anders – und löst genau die Herausforderungen, an denen bisherige künstliche Intelligenz scheitert: Sie kann sich nichts merken, hat kein institutionelles Gedächtnis und bricht bei Ausnahmen zusammen.

Warum generative KI scheitert – und Agentic AI liefert

Während bisherige KI-Systeme nur reagieren, handelt Agentic AI. Konkret bedeutet das: ChatGPT und ähnliche herkömmliche Chatbots warten auf Anweisungen und liefern Antworten. AI-Agenten dagegen setzen sich eigene Zwischenziele, orchestrieren komplexe Workflows über mehrere Systeme hinweg, überwachen Fortschritte und korrigieren selbstständig ihre Strategien, bis die Aufgabe erledigt ist. Bisherige KI assistiert – Agentic AI agiert.

Ein konkretes Beispiel macht den Unterschied deutlich: Ein herkömmlicher KI-Chatbot beantwortet die Frage „Ist meine Bestellung verschickt?“ Ein AI-Agent erkennt eigenständig, dass die Lieferung verspätet ist, kontaktiert den Logistikdienstleister, bucht eine Ersatzlieferung und informiert den Kunden proaktiv – ohne weitere menschliche Intervention.

Ein Wendepunkt, den Unternehmen nicht verpassen sollten

In den vergangenen Monaten ist etwas Fundamentales passiert – der Boom bei autonomen KI-Systemen nimmt deutlich an Fahrt auf. Anfang Oktober stellte Google sein neues System „Gemini Enterprise“ vor, eine fortschrittliche KI-Plattform für Unternehmen. Kurz danach kündigte Salesforce „Agentforce 360“an: die erste Plattform des führenden Anbieters von Cloud-Software für Kundenmanagement, die Menschen und autonome KI-Agenten als digitales Team zusammenbringt. Auch Microsoft hat begonnen, autonome KI-Agenten in „Copilot Studio“ – einer Plattform zur Automatisierung von Geschäftsprozessen – allgemein verfügbar zu machen. Diese geballte Offensive hat eine klare Botschaft: Autonome KI-Systeme der nächsten Generation sind bereit für den Massenmarkt.

Wenn hierzulande hochrangige Entscheider*innen dieses Marktsignal unterschätzen und die Entwicklung verpassen, riskieren sie einen Wettbewerbsrückstand, der Fachleuten zufolge bereits in wenigen Monaten uneinholbar geworden sein dürfte. „Viele Unternehmen in Deutschland haben momentan Schwierigkeiten, sich zu entscheiden, ob und auf welche autonomen KI-Systeme sie setzen sollen“, sagt Florian Helbig, Rechtsanwalt und Partner bei Forvis Mazars. Autonome KI-Systeme seien teuer, die Implementierung aufwendig – das führe zu Lähmung. „Doch das ist eine gefährliche Reaktion“, warnt der Experte. „Der Fehler ist das Abwarten, das Nichtentscheiden. Warum? Weil es nicht nur um die Software geht. Die aktuelle Entwicklung durchzieht Technologie, Beschäftigte, Kunden, Produkte – das ganze Unternehmen.“

Auch aus rechtlicher Perspektive sei die größte Verfehlung, zu spät zu handeln: „Expert*innen werden erst dann hinzugezogen, wenn das System schon implementiert ist, und sollen es dann ,wasserdicht‘ machen“, berichtet Helbig. Das funktioniere nicht. „Man muss frühzeitig verschiedene Fachbereiche einbinden: IT, Legal, Compliance, Betriebsrat, Datenschutz – schon bei der Konzeption des Systems.“

Die Warnungen davor, den Anschluss zu verpassen und damit die Zukunftsfähigkeit der eigenen Organisation aufs Spiel zu setzen, wird durch aktuelle Marktdaten eindrücklich untermauert: Der globale Agentic-AI-Markt wird von 5,2 Mrd. US$ im Jahr 2024 auf mehr als 196 Mrd. US$ bis 2034 wachsen. Die Adoptionsraten untermauern diesen Trend: So erweitern 96 % der Unternehmen derzeit ihren Einsatz von AI Agents, und 83 % der Führungskräfte halten Investitionen in Agentic AI für unerlässlich, um wettbewerbsfähig zu bleiben. Eine im Oktober publizierte IBM-Studie zeigt, dass bereits heute rund ein Viertel der Führungskräfte AI-Agenten eigenständige Aktionen durchführen lassen. Bis 2027 erwarten mehr als zwei Drittel, dass dies dann der Fall sein wird. Und dieser Trend dürfte sich Expert*innen zufolge weiter beschleunigen. Denn ein Großteil der Unternehmen, die AI- Agenten bereits produktiv einsetzen, melden Effizienzgewinne und messbare Einsparungen. Anders als bei generativer KI, wo die meisten Pilotprojekte scheitern.

Diese vier Schlüsselfähigkeiten machen den Unterschied

Was Agentic AI von bisherigen KI-Systemen unterscheidet und dadurch erfolgreicher macht, lässt sich in vier entscheidenden Fähigkeiten zusammenfassen:

  1. Wahrnehmen: AI-Agenten erfassen kontinuierlich ihre Umgebung und verarbeiten strukturierte und unstrukturierte Daten in Echtzeit.
  2. Analysieren: Sie verstehen Kontext über mehrere Interaktionen hinweg, erkennen Muster und ziehen Schlüsse – mit institutionellem Gedächtnis.
  3. Handeln: Sie führen Aktionen über Systemgrenzen hinweg aus – buchen Flüge, beauftragen Lieferanten, erstellen Verträge, koordinieren Teams.
  4. Lernen: Sie optimieren ihre Strategien kontinuierlich durch Reinforcement Learning – ohne dass Menschen sie neu trainieren müssen.

Diese Kombination ermöglicht es Agentic-AI-Systemen, interne Zustandsdarstellungen beizubehalten, über zukünftige Aktionen nachzudenken und ihr Verhalten basierend auf Umgebungs-Feedback anzupassen. Generative AI-Systeme operieren dagegen reaktiv, ohne dauerhaft verfolgte Ziele – sie reagieren nur auf unmittelbare Anfragen, ohne ein längerfristiges Ziel zu verfolgen

Warum Aufsichtsräte und Vorstände jetzt handeln müssen

Für Aufsichtsrät*innen und andere hochrangige Unternehmensverantwortliche gewinnt Agentic AI damit vor allem aus zwei entscheidenden Gründen an Relevanz: Erstens müssen Boards heute beurteilen, ob ihre Organisation auf die richtige Technologie setzt – oder Millionen in bald überholte generative KI-Projekte fehlinvestiert. Dazu kommt zweitens der Themenkomplex Governance und Kontrolle: Während generative KI menschliche Kontrolle bei jedem Schritt benötigt, treffen AI-Agenten eigenständig Entscheidungen. Für Boards und hochrangige Entscheider*innen können daraus neue Überwachungspflichten entstehen. Allen voran die Frage: Wie stellt das Unternehmen sicher, dass autonome Systeme im Sinne der Stakeholder agieren?

Eine zentrale Governance-Frage macht die Komplexität besonders deutlich: die Haftung. Wenn ein autonomes KI-System eigenständig eine Personalentscheidung, eine Kreditvergabe oder eine Lieferketten-Optimierung trifft und dabei Schaden verursacht – wer haftet? „Die Haftungskaskade beim Einsatz von autonomen KI-Systemen ist komplex. Grundsätzlich trägt zwar zunächst das Unternehmen die Haftung“, erläutert Florian Helbig. Danach stelle sich aber die Frage der Rückgriffe: „Zum einen kann das Unternehmen sich an den KI-Anbieter wenden – wenn das System fehlerhaft oder mangelhaft war. Hier kommt die Vertragsgestaltung ins Spiel, die aus Governance-Perspektive entscheidend ist: Wie regeln wir ab, was passiert, wenn das System nicht funktioniert? Welche Schadensersatzansprüche kann ich geltend machen? Und – ganz wichtig – wie ist die Beweislast verteilt?“

Parallel gebe es aber noch eine zweite, oft unterschätzte Perspektive: die persönliche Haftung der Organe. „Wenn der Vorstand einer Aktiengesellschaft keine Sorgfalt an den Tag legt – etwa bei der Auswahl, Implementierung und Kontrolle autonomer KI-Systeme –, kann er nach Aktiengesetz persönlich in Haftung genommen werden. Das gilt entsprechend für GmbH-Geschäftsführer und Aufsichtsräte, wenn sie ihre Überwachungspflichten verletzen.“

Das sei keine theoretische Gefahr, betont Helbig: „Boards müssen sich bewusst sein: Hier geht es nicht nur um Unternehmenshaftung, sondern auch um persönliche Risiken der Organmitglieder – mit potenziell erheblichen finanziellen Konsequenzen, die auch D&O-Versicherungen nicht immer vollständig abdecken.“

Fazit: Wer sich durch die jüngsten KI-kritischen Meldungen in seiner Skepsis bestätigt sieht und darauf wettet, dass der Boom künstlicher Intelligenz nur vorübergehend ist, ignoriert die tektonische Verschiebung. Während viele generative KI-Projekte scheitern, liefern autonome KI-Systeme bereits messbare Erfolge. Agentic AI adressiert zentrale Schwachstellen der ersten KI-Generation – von fehlendem institutionellem Gedächtnis bis zur mangelnden Kontextverarbeitung. Für Aufsichtsräte und andere Führungsgremien stellt sich die strategische Frage: Wann und wie setzen wir autonome KI-Systeme ein – und wie managen wir die damit verbundenen Risiken?“ Expert*innen geben zu bedenken: Wer bei der Planung dieser Technologien zu lange wartet, riskiert Wettbewerbsnachteile, die sich nur schwer wieder aufholen lassen.

[1]  Fortune: ‘Human skills’ are at a premium again now that big companies are backpedaling on error-prone AI

202411_Anmeldebanner_Board_Briefing_1039x188px.jpg

Want to know more?