Wenn Wissen kein Machtfaktor mehr ist; Das Principal-Agent-Problem im KI-Zeitalter

Einstieg

Wer im BWL-Grundstudium aufgepasst hat, wird sich noch an den Begriff „Principal-Agent-Problem" oder die dazugehörige Theorie erinnern. Es ist eines der grundlegenden Probleme in der Interaktion zwischen Menschen. Die Theorie dahinter ist relativ simpel und einleuchtend, jeder von uns hat das Problem schon selbst bewusst oder unbewusst erlebt, ob im beruflichen oder privaten Kontext. Mal in der Rolle des Principal, mal als Agent.

In diesem Beitrag möchte ich diesem Grundproblem nachgehen und zeigen, wie sich eines der zentralen Strukturprobleme moderner Organisationen durch den Einsatz von KI gerade grundlegend verschiebt.

Grundbegriff

Das Principal-Agent-Problem wurde 1973 erstmals wissenschaftlich durch Stephan A. Ross beschrieben. Die Grundidee lässt sich wie folgt zusammenfassen:

Eine Principal-Agent-Beziehung liegt vor, wenn eine Partei (der Principal) eine andere Partei (den Agenten) damit betraut, in ihrem Auftrag Entscheidungen zu treffen oder Handlungen auszuführen. Beide verfolgen dabei eigene Ziele, haben unterschiedliche Risikopräferenzen und Informationsstände. Der Principal versucht über Verträge und Anreizschemata sicherzustellen, dass sich der Agent möglichst in Übereinstimmung mit seinen eigenen Interessen verhält.

Im BWL-Studium wurde meist das klassische Werkstatt-Beispiel verwendet: Der Principal (ich) geht zur Werkstatt und beauftragt den Agenten (den KFZ-Meister) mit der Reparatur seines Autos. Beide haben unterschiedliche Ziele. Ich möchte, dass an meinem Auto nur das Nötigste repariert wird und es nicht zu teuer wird. Der KFZ-Meister als Unternehmer verfolgt Gewinnmaximierung. Das kann bedeuten, dass er fair spielt, um mich als Kunden langfristig zu halten – oder aber, dass er unnötige Arbeiten durchführt, um mehr abrechnen zu können. Das Problem liegt darin, dass ich als Principal keine Möglichkeit habe, das zu kontrollieren oder zu durchschauen. Ich muss darauf vertrauen, dass der KFZ-Meister mich nicht übers Ohr haut. Dieses Vertrauenslücke lässt sich auch durch das Recherchieren in diversen Forenbeiträgen meist nicht überbrücken.

Meine eigene Definition des Begriffs würde lauten:

Eine Principal-Agent-Beziehung liegt vor, wenn ich Verantwortung übertrage an jemanden, der mehr weiß als ich, eigene Interessen verfolgt und daraus ein Spannungsfeld aus Vertrauen, Kontrolle und potenzieller Ausnutzung dieser Wissenslücke entsteht.

Principal-Agent-Problem im Unternehmenskontext

Doch was bedeutet das im Unternehmenskontext? Unternehmen sind geradezu um das Principal-Agent-Problem herum gebaut. Die gesamte Steuerungssystematik – Controlling, Compliance, Managementkontrolle – dient genau diesem Zweck: Informationsasymmetrien abbauen, Agentenverhalten steuern und Vertrauen schaffen.

Ich war einige Jahre lang Controller. Mein Job war es im Grunde, das Principal-Agent-Problem für das Top-Management zu managen. Mit Hilfe von Steuerungslogiken, KPIs und Reporting schafft das Controlling Transparenz für bessere Entscheidungsfindung im Sinne der Unternehmung und der Shareholder. Natürlich herrscht auch zwischen Management und Controlling selbst ein Principal-Agent-Problem. Das durchzieht verschiedene Ebenen in einem Konzern, von der Führungsebene über die Geschäftsführung bis hin zu Vorstand und Aufsichtsrat. Dasselbe Problem besteht mit anderen Fachabteilungen wie Legal, HR und natürlich auch den wertschöpfenden Bereichen. Deshalb der ganze Aufwand für Kontroll- und Anreizsysteme, die zwar notwendig sind, aber nicht wirklich produktiv oder wertschöpfend wirken.

Principal-Agent-Problem im KI-Zeitalter

Mit GenAI verändert sich dieses Problem massiv. Nicht, weil das Principal-Agent-Problem verschwindet, sondern weil sich die Informationsasymmetrie erstmals systematisch reduziert.

Wissen ist nicht mehr exklusiv an Rollen, Titel oder Abteilungen gebunden. Es ist abrufbar. Vergleichbar. Hinterfragbar.

Dank dieser Tools müssen wir nicht mehr „blind" dem Rechtsexperten vertrauen. Wir müssen nicht mehr nur durch taktische Nachfragen und Erfahrungswerte testen, wie gut seine Expertise wirklich ist und dabei am Ende nie wirklich sicher sein, ob es die beste Einschätzung ist. Bei wirklich kritischen Fällen wurden traditionell mehrere Experten beschäftigt und Vergleichsgutachten eingeholt. Mit GenAI haben wir einen Experten, der ein Rechtsgutachten innerhalb von Sekunden generiert. Diese erweisen sich in der Praxis zu großen Teilen als korrekt oder nahezu korrekt. Recht ist genauso wie das kaufmännische Feld häufig auch eine Auslegungssache, und auch das ist für KI-Tools keine Herausforderung.

Dasselbe lässt sich auf andere hochqualifizierte Experten-Rollen in Unternehmen anwenden: Controlling, Legal, HR, Accounting, Marketing, Technologieexperten (SAP, Microsoft etc.), Vertriebsmitarbeiter um nur einige zu nennen.

Das bedeutet nicht sofort, dass ein Unternehmen auf all diese Rollen verzichten kann, doch diese verändern sich stark. Und vor allem verändert sich, wie wir mit diesen Experten kommunizieren und arbeiten – und welche Erwartungshaltung ihnen entgegensteht. Wenn ich heute als Geschäftsführer eine Rechtseinschätzung von meinem Legal Department haben möchte, erwarte ich nicht dasselbe, was ich von ChatGPT bekommen hätte. Ich möchte eine Ergänzung. Ich möchte, dass der Legal-Experte mögliche Lücken und zusätzliche Perspektiven zur KI-Einschätzung mitbringt. Und ich brauche natürlich weiterhin jemanden, der für diese Einschätzung und das Gutachten Verantwortung übernimmt, denn die KI kann keine Verantwortung tragen.

Und nicht zu vergessen: das beliebte Werkstatt-Beispiel aus der Uni. Auch hier verändert sich etwas. Heute kann ich ein Foto meiner Bremsbeläge machen und Gemini fragen, ob ich neue brauche. Oder ich beschreibe das Geräusch im Motorraum und bekomme eine erste mögliche Eingrenzung des Problems. Damit bin ich zwar nicht auf Augenhöhe mit dem KFZ-Meister (Agent), aber ich bin etwas näher gerückt.

Fazit & Ausblick

Das Principal-Agent-Problem wird durch KI nicht gelöst. Aber es tritt nicht mehr im klassischen Sinne auf, sondern verändert sich.

Informationsasymmetrien, jahrzehntelang die Grundlage für Hierarchien, Kontrollsysteme und Overhead, werden kleiner. An ihre Stelle tritt: Urteilsfähigkeit, Verantwortung und die Fähigkeit, KI-Ergebnisse sinnvoll einzuordnen.

Gleichzeitig löst KI weder Haftungsfragen noch organisationale Verantwortung auf. Und genau dort liegt die eigentliche Trägheit großer Organisationen. Sie werden sich mit dieser Veränderung schwertun - nicht, weil KI zu schnell ist, sondern weil ihre Strukturen auf ein Problem optimiert sind, das sich gerade verschiebt.

Die grundlegende Frage lautet daher nicht: Wie viele Experten brauchen wir künftig noch?
Sondern viel entscheidender: Wofür brauchen wir sie eigentlich und wofür nicht mehr?

Ein letzter Gedanke zum Schluss (vielleicht für einen weiteren Text): Mit GenAI entsteht eine neue Principal-Agent-Beziehung (Mensch und Maschine). Die entscheidende Frage ist, welche neuen Principal-Agent-Probleme sie mit sich bringt.