Governance von Künstlicher Intelligenz

Viele Organisationen nutzen bereits KI oder stellen ihren Beschäftigten zumindest entsprechende Tools zur Verfügung, z. B. Recruiting-Tools, Marketing-Agenten oder generative Assistenzsysteme. Gleichzeitig fehlt aber oft ein klares AI-Governance-Konzept: Es gibt einzelne Tools, Pilotprojekte oder „Shadow AI“, aber keine gemeinsamen Leitplanken, wer was wann mit welcher Technologie tun darf.

Außerdem wird Governance dabei oft vor allem als Compliance-Thema verstanden, was natürlich gut und richtig ist. Aus psychologischer Perspektive geht es aber um eine viel grundsätzlichere Frage:

Welches Level an Unsicherheit, Kontrollverlust und Intransparenz erzeugt KI-Nutzung unter Umständen im Unternehmen – und wie fangen wir das auf?

Aktuelle Studien zeigen Folgendes:

  • KI kann Effizienz, Produktivität und Entscheidungsqualität erhöhen – aber auch Stress und Belastung verstärken, je nachdem, wie sie eingeführt und erlebt wird.
  • Wenn Mitarbeitende den Eindruck haben, dass KI „über ihre Köpfe hinweg“ eingeführt wird oder nicht nachvollziehbar entscheidet, steigt das Risiko für psychische Belastungen bis hin zu depressiven Symptomen.
  • Eine von den Mitarbeitenden wahrgenommene Bedrohung durch KI („AI anxiety“) kann Fluktuationsabsichten und „Quiet Quitting“ verstärken.

AI Governance ist also nicht nur Risiko- und Compliance-Management, sondern stellt eine psychologische Notwendigkeit dar.

Was sollte ein gutes AI-Governance-Konzept leisten?

1. Unsicherheit reduzieren und Klarheit schaffen

Governance beginnt mit einfachen Fragen:

  • Wofür wird KI eingesetzt – und wofür ausdrücklich nicht?
  • Wer trägt die Verantwortung für KI-Ergebnisse?
  • Welche Entscheidungen sind KI-gestützt, welche bewusst exklusiv menschlich?

Frameworks für „Responsible AI Governance“ betonen klare Rollen- und Verantwortlichkeitsmodelle (z. B. RACI) über den gesamten KI-Lebenszyklus – von der Idee über das Training bis zum Monitoring im laufenden Betrieb.

Psychologisch reduziert das die sog. Verantwortungsdiffusion („Die KI hat entschieden“) und stärkt entsprechend die wahrgenommene Kontrolle auf Seiten der Mitarbeitenden.

2. Klare Eingriffsmöglichkeiten fördern Akzeptanz

Mitarbeitende sollten außerdem verstehen,

  • welche Daten genutzt werden,
  • welche Entscheidungen KI nur vorbereitet und
  • in welchen Fällen sie – die Mitarbeitenden – (vorerst) selbst entscheiden.

Genauso wichtig sind klare „Override“-Regeln:

  • Wann darf und wann muss eine KI-Empfehlung übersteuert werden?
  • Wo ist zwingend eine menschliche Zweitprüfung vorgeschrieben?

Studien zu Vertrauen in algorithmische Systeme zeigen, dass nachvollziehbare Eingriffsmöglichkeiten ein zentraler Treiber für Akzeptanz sind.

3. Psychologische Sicherheit explizit schützen

AI Governance sollte psychologische Risiken ausdrücklich adressieren: Technostress, Kontrollverlust, Fairnesswahrnehmung, Angst vor Substitution usw.

Das bedeutet u. a.:

  • Mitarbeitende und Interessenvertretungen früh einbinden,
  • Sorgen und Widerstände ernst nehmen,
  • problematische Effekte offen ansprechbar machen (z. B. Bias, Fehlentscheidungen, als unfair erlebte Bewertungen).

Forschung dazu, wie psychologische Sicherheit zwischen KI-Adoption und KI-Angst vermittelt, zeigt: Wo Menschen Angst haben, Fehler oder Kritik zu äußern, verschärfen sich negative Effekte von KI.

4. AI Literacy und Beteiligung aufbauen

Governance funktioniert nur, wenn Menschen verstehen, worüber sie sprechen. Dazu braucht es

  • ein Grundverständnis, was KI kann – und was nicht,
  • Wissen über typische Fehler und Verzerrungen (Bias),
  • rollenspezifische Schulungen für Führungskräfte, HR, Fachbereiche, Betriebsrat.

Empirische Studien zeigen, dass wahrgenommene Kompetenz im Umgang mit KI (AI Literacy) mit besserem Wohlbefinden und höherer Akzeptanz einhergeht – insbesondere, wenn KI als Unterstützung und nicht als Bedrohung verstanden wird.

5. Wirkung monitoren, nicht nur Performance

AI Governance endet nicht mit einem Policy-Dokument. Organisationen sollten regelmäßig prüfen:

  • Wie wirkt KI auf Vertrauen, Belastung und Gerechtigkeitserleben?
  • Wo hilft sie tatsächlich – und wo erzeugt sie neue Probleme?
  • Welche unbeabsichtigten Nebenwirkungen zeigen sich in Teams?

Aktuelle Arbeiten zu AI Governance betonen, dass „Responsible AI“ nur dort Realität wird, wo Wirkung systematisch beobachtet und kontinuierlich nachgesteuert wird – technisch, organisatorisch und psychologisch.

Fazit: Bei allen technischen Möglichkeiten den Menschen nicht aus dem Auge verlieren

Die eigentliche Frage lautet abschließend also weniger:

„Wie viel KI können wir technisch integrieren?“

Vielmehr müssen wir fragen:

„Wie gestalten wir Regeln, Verantwortlichkeiten und Transparenz so, dass Menschen KI in ihrem Arbeitsalltag kompetent und vertrauensvoll nutzen können?“

AI Governance ist kein bürokratischer Hemmschuh, sondern ein (psychologischer) Sicherheitsrahmen in einer Situation, in der Technologie, Unsicherheit und menschliche Ängste zusammenkommen.

Quellen zur Vertiefung (Auswahl)

Papagiannidis, E., Mikalef, P. & Conboy, K. (2025). Responsible artificial intelligence governance: A review and research framework. Journal of Strategic Information Systems, 34(2), 101885. (Open Access) https://www.sciencedirect.com/science/article/pii/S0963868724000672

Batool, A., Zowghi, D. & Bano, M. (2025). AI governance: a systematic literature review. AI and Ethics, 5, 3265–3279. https://link.springer.com/article/10.1007/s43681-024-00653-w

Valtonen, A., Saunila, M., Ukko, J., Treves, L. & Ritala, P. (2025). AI and employee wellbeing in the workplace: An empirical study. Journal of Business Research, 199, 115584. https://www.sciencedirect.com/science/article/pii/S0148296325004072

Kim, B.-J., Kim, M.-J. & Lee, J. (2025). The dark side of artificial intelligence adoption: linking artificial intelligence adoption to employee depression via psychological safety and ethical leadership. Humanities and Social Sciences Communications, 12(704). https://www.nature.com/articles/s41599-025-05040-2

Uygungil-Erdogan, S. et al. (2025). Assessing the Effect of Artificial Intelligence Anxiety on Turnover Intention: The Mediating Role of Quiet Quitting in Turkish SMEs. Behavioral Sciences, 15(3), 249. https://www.mdpi.com/2076-328X/15/3/249