Ein KI-System trifft falsche Personalentscheidungen, ein Algorithmus benachteiligt Bewerber*innen und löst teure Schadenersatzklagen aus oder eine automatisierte Prognose führt zu millionenschweren Fehlinvestitionen – solche Szenarien sind längst Realität. Mit der wachsenden Nutzung von künstlicher Intelligenz in den Entscheidungsprozessen von Vorständ*innen und anderen hochrangigen Führungspersönlichkeiten stehen Unternehmen vor zwei zentralen Fragen: Wer trägt die Verantwortung, wenn KI-Systeme Fehler machen? Und wie kann man sich frühzeitig gegen drohende Gefahren wappnen, falls die Technologie in kritischen Prozessen versagt?
„Künstliche Intelligenz bietet enorme Potenziale, insbesondere auf den höchsten Leitungsebenen“, sagt Charlotte Kulenkampff, Partnerin bei Forvis Mazars „Doch der Einsatz von KI verlangt gleichzeitig ein hohes Maß an Sorgfalt, um rechtliche, wirtschaftliche und ethische Herausforderungen zu bewältigen“, ergänzt die Expertin für Gesellschaftsrecht.
Gerade bei komplexen Entscheidungen im Rahmen von Fusionen und Übernahmen oder Finanzierungsprojekten können Unternehmen laut Kulenkampff von den nahezu grenzenlosen Analyse- und Prognosefähigkeiten der KI profitieren. Studien zeigen zudem, dass Firmen, die KI-Systeme strategisch einsetzen, Entscheidungen schneller und präziser treffen.
Diese Effizienz hat jedoch ihren Preis: Schließlich können Algorithmen fehlerhafte Vorhersagen treffen oder diskriminierende Ergebnisse liefern. Ein bekanntes Beispiel ist das Recruiting-Tool des US-Technologiekonzerns Amazon, das Frauen zeitweise systematisch benachteiligte, weil es überwiegend mit Bewerbungsdaten von Männern trainiert worden war.
Charlotte Kulenkampff mahnt daher zur Vorsicht: „Das größte Risiko besteht darin, den Ergebnissen von Algorithmen blind zu vertrauen. Es genügt nicht zu sagen: ‚Die KI hat entschieden, das wird schon richtig sein.‘ Diese Haltung birgt die Gefahr, dass Fehlentscheidungen unentdeckt bleiben und schwerwiegende wirtschaftliche oder rechtliche Folgen nach sich ziehen.“
Ein weiteres Risiko besteht darin, dass wirtschaftliche oder rechtliche Fehlentscheidungen oft erst mit Verzögerung sichtbar werden. Wenn Prozesse nicht ausreichend dokumentiert sind, wird es für Vorständ*innen schwierig, sich im Nachhinein zu enthaften.
Gesetzeskonformität bei KI-Systemen sicherstellen
Die rechtlichen Herausforderungen beim Einsatz von KI durch Führungskräfte beruhen auf zwei zentralen Pflichten: der Legalitätspflicht und der Legalitätskontrollpflicht, erläutert Kulenkampff. Die Legalitätspflicht verpflichtet Vorständ*innen, rechtswidriges Verhalten zu unterlassen, während die Legalitätskontrollpflicht sie dazu anhält, organisatorische Maßnahmen zu ergreifen, um Gesetzesverstöße im Unternehmen zu verhindern.
Im Kontext von KI sind zwei Risikobereiche besonders kritisch: erstens die Einhaltung der Datenschutzgesetze wie der DSGVO bei der Verarbeitung personenbezogener Daten; zweitens die Vermeidung diskriminierender Algorithmen, die gegen das Allgemeine Gleichbehandlungsgesetz (AGG) verstoßen könnten – insbesondere bei Personalentscheidungen.
Darüber hinaus betont Kulenkampff die wirtschaftliche Dimension: Der Einsatz von KI muss nicht nur rechtlich einwandfrei sein, sondern auch kommerziell sinnvoll. Das bedeutet für Vorständ*innen, dass Investitionen in KI-Systeme einen klaren Mehrwert schaffen und die Kosten durch den Nutzen gerechtfertigt sein müssen. Nur so können sie ihrer Verpflichtung nachkommen, im besten Interesse des Unternehmens zu handeln.
Wer trägt die Verantwortung, wenn Algorithmen versagen?
Die Klärung der Haftung bei Fehlentscheidungen durch KI-Systeme gestaltet sich komplex und hängt maßgeblich davon ab, wer betroffen ist und wie Verantwortlichkeiten verteilt werden. Dabei lassen sich drei Szenarien unterscheiden:
Treten Schäden aufgrund technischer Mängel oder fehlerhafter Programmierungen im KI-Algorithmus auf, greift in erster Linie die Produkthaftung. In solchen Fällen haften Entwickler*innen oder Hersteller*innen des Systems. Dies gilt beispielsweise, wenn ein Programmierfehler dazu führt, dass falsche Ergebnisse geliefert werden. Grundlage hierfür ist das Produkthaftungsgesetz (ProdHaftG).
Ein weiteres Szenario betrifft die persönliche Haftung von Vorstandsmitgliedern gegenüber der Gesellschaft. „Diese greift, wenn Vorstände ein KI-System pflichtwidrig auswählen oder dessen Einsatz unzureichend überwachen und dadurch der Gesellschaft ein Schaden entsteht“, erklärt Kulenkampff. Als Beispiel nennt sie eine Finanzierungsentscheidung, die auf einer fehlerhaften Analyse eines offensichtlich ungeeigneten KI-Systems basiert. In einem solchen Fall kann die Gesellschaft – vertreten durch den Aufsichtsrat – den Vorstand persönlich haftbar machen.
Der dritte Fall betrifft die Haftung für Schäden durch den Einsatz von KI, die bei externen Parteien wie Kund*innen oder Geschäftspartner*innen verursacht worden sind. Diese kann entstehen, wenn das Unternehmen seine vertraglichen Pflichten zur sorgfältigen Auswahl und Überwachung des KI-Systems verletzt. In solchen Fällen haftet zunächst das Unternehmen gegenüber den Geschädigten. In diesem Szenario ist parallel aber auch eine Innenhaftung des Vorstands gegenüber dem Unternehmen möglich – dann, wenn dieser seine Pflicht zur sorgfältigen Auswahl und Überwachung des Systems verletzt hat.
Governance im Zeitalter von KI: Kontrolle statt blindem Vertrauen
Die richtige Balance zwischen Delegation und Verantwortung kann für Vorständ*innen und andere hochrangige Entscheidungsträger*innen bei Haftungsfragen maßgeblich sein: Sie können zwar Aufgaben übertragen – sei es an Mitarbeiter*innen oder KI-Systeme –, doch Charlotte Kulenkampff betont: „Delegation entbindet nicht von Verantwortung. Sie verlagert diese stattdessen in Richtung sorgfältiger Auswahl, Überwachung und Kontrolle.“
Neben Vorständ*innen stehen auch Aufsichtsrät*innen durch den zunehmenden Einsatz von KI vor neuen Herausforderungen: Ihre Aufgabe ist es, zu überwachen, wie Unternehmen KI einsetzen und ob dieser Einsatz den rechtlichen Vorgaben entspricht. Diese Kontrollfunktion wird durch die oft schwer nachvollziehbare Entscheidungslogik vieler KI-Systeme – häufig als „Blackbox“ bezeichnet – besonders anspruchsvoll. „So kann ein Vorstand, der Entscheidungen an ein KI-System delegiert hat, dem Aufsichtsrat möglicherweise keine detaillierte Auskunft über den genauen Arbeitsprozess der Technologie geben“, warnt Kulenkampff.
„Das birgt Risiken, denn auch der Aufsichtsrat haftet, wenn er seine Überwachungspflichten nicht ordnungsgemäß erfüllt.“ Ein pauschales Verbot des KI-Einsatzes durch den Aufsichtsrat wäre kontraproduktiv und könnte wirtschaftliche Nachteile mit sich bringen.
Rechtliche und technische Expertise: wie Führungskräfte sich absichern
Es ist essenziell, dass Führungskräfte technische und rechtliche Kompetenzen im Bereich KI aufbauen. Führungskräfte müssen verstehen, wie sie ein geeignetes KI-System auswählen, mit umfassenden Informationen speisen und die Ergebnisse plausibilisieren können. „Um diese Kompetenzen aufzubauen, sollten fachliche Schulungen und Workshops durchgeführt werden. Weiterhin sollten unternehmensinterne Richtlinien den Einsatz von KI im Unternehmen regeln“, empfiehlt Kulenkampff.
Fazit: präventives Handeln statt späterer Haftung
Künstliche Intelligenz in ihre Führungs- und Entscheidungsprozesse zu integrieren, eröffnet Verantwortungsträger*innen in Unternehmen immense Chancen zur Optimierung – bringt jedoch auch erhebliche Risiken mit sich. Diese Gefahren lassen sich nur durch proaktives Handeln minimieren, weshalb Unternehmen frühzeitig geeignete Kontroll- und Governance-Strukturen etablieren, Kompetenzen gezielt ausbauen und klare Verantwortlichkeiten festlegen sollten, um sich vor unkalkulierbaren Haftungsfolgen zu schützen. Denn eines ist sicher: Verantwortung bleibt auch in Zukunft unverzichtbar – sie wird sich nicht an Algorithmen delegieren lassen.