Vier Prinzipien menschenorientierter KI-Nutzung
Künstliche Intelligenz ist längst im Alltag von Organisationen angekommen: in Bürosoftware, HR-Systemen, Prognosemodellen, Service-Bots oder generativen Assistenztools. In vielen Diskussionen steht jedoch vor allem die technische Leistungsfähigkeit im Vordergrund: mehr Effizienz, bessere Vorhersagen, schnellere Prozesse.
Aus arbeits- und organisationspsychologischer Sicht sollte aber eine andere Frage im Mittelpunkt stehen:
Wie können wir KI so gestalten und einsetzen, dass sie Menschen wirklich unterstützt – statt sie zu überfordern, zu ersetzen oder zu entmündigen?
Genau das ist Human-Centered AI (HCAI).
Was bedeutet „Human-Centered AI“?
Vereinfacht ausgedrückt: Human-Centered AI verschiebt den Fokus weg von der reinen Technologie hin zur Mensch–KI-Interaktion. KI-Systeme sollen so gestaltet werden, dass sie menschliche Fähigkeiten, Werte und Bedürfnisse unterstützen – statt sie zu unterlaufen.
- Shneiderman (2022) beschreibt HCAI als Ansatz, bei dem KI Menschen unterstützt, ihre Selbstwirksamkeit stärkt, ihnen aber die letztendliche Kontrolle über wichtige Entscheidungen belässt.
- Die EU-Ethikleitlinien für „Trustworthy AI“ betonen in ähnlicher Weise menschliche Handlungsmacht, Fairness, Transparenz und Rechenschaftspflicht als Grundpfeiler vertrauenswürdiger KI.
- Die OECD-Prinzipien fordern explizit eine menschenorientierte und wertebasierte Nutzung von KI, die Menschenrechte und demokratische Werte respektiert.
Human-Centered AI ist also kein „nice to have“, sondern ein Ordnungsrahmen dafür, wie KI in Organisationen integriert wird – technisch, organisatorisch und psychologisch.
Vier Prinzipien menschenorientierter KI-Nutzung
Vor dem Hintergrund existierender internationaler Leitlinien und aktueller organisationspsychologischer Forschung lassen sich vier Kernprinzipien menschenorientierter KI-Nutzung formulieren, an denen sich Organisationen orientieren können.
1. Menschenwürde & Fairness
Human-Centered AI respektiert grundlegende Rechte, schützt vor Diskriminierung und unterstützt ein gerechtes Erleben von Entscheidungen.
- KI-gestützte Entscheidungen, z. B. im Recruiting, in der Leistungsbewertung oder auch in der Schichtplanung, müssen mit Prinzipien organisationaler Gerechtigkeit vereinbar sein (Verfahren, Ergebnisse, Umgangston).
- Verzerrte Trainingsdaten oder ungeeignete Kriterien können historische Ungleichheiten reproduzieren und bestimmte Gruppen systematisch benachteiligen.
- Internationale Rahmen wie die EU-Leitlinien und die OECD-Prinzipien fordern daher ausdrücklich Diversität, Nichtdiskriminierung und Fairness über den gesamten Lebenszyklus von KI-Systemen.
Praxisimplikation: Human-Centered AI heißt, Fairness nicht nur als technisches „Bias-Problem“ zu begreifen, sondern als organisationales Thema, das Kommunikation, Beschwerdewege und Monitoring einschließt.
2. Autonomie & menschliche Kontrolle
Human-Centered AI garantiert, dass Menschen die entscheidende Steuerungshoheit behalten. Das ist gerade bei risikoreichen oder normativ sensiblen Entscheidungen wichtig.
- Shneiderman spricht von der Notwendigkeit, „menschliche Kontrolle zu sichern, während die Automatisierung steigt“.
- Die EU-Ethikleitlinien fordern explizit „Human agency and oversight“: Menschen müssen KI-Systeme überwachen, eingreifen und ihre Empfehlungen übersteuern können.
In der Praxis geht es um Fragen wie:
- Welche Entscheidungen darf eine KI allein vorbereiten – und welche nicht?
- Wo ist Human-in-the-Loop (menschliche Freigabe) oder Human-on-the-Loop (Überwachung, Eingriffsmöglichkeit) zwingend?
- Welche Override-Regeln sind definiert – und kennen Mitarbeitende diese?
Praxisimplikation: Human-Centered AI erfordert klare Governance: Rollen, Verantwortlichkeiten und Eingriffsrechte müssen genauso definiert sein wie technische Spezifikationen.
3. Transparenz & Erklärbarkeit
Menschen müssen verstehen können, was KI-Systeme tun, warum sie bestimmte Empfehlungen geben und welche Grenzen sie haben.
- Die EU-Guidelines nennen Transparenz und Erklärbarkeit als Kernanforderungen vertrauenswürdiger KI. Das ist auch wichtig für das Kohärenzerleben und damit das psychische Wohlbefinden aller Beschäftigten.
- Forschung zu erklärbarer KI (XAI) zeigt, dass nachvollziehbare Erklärungen Vertrauen und Fairnesswahrnehmung verbessern können – auch wenn sie Algorithmus-Skepsis nicht vollständig auflösen.
Im Organisationskontext bedeutet das:
- Nutzer:innen wissen, welche Daten in Modelle einfließen und welche Annahmen sie implizit machen.
- Entscheidungen, die Mitarbeitende stark betreffen (z. B. Personalauswahl, Beförderungen, Dienstpläne), sind begründbar und überprüfbar.
- Es gibt Ansprechpersonen und Prozesse, um Entscheidungen zu hinterfragen.
Praxisimplikation: Human-Centered AI braucht nicht nur technische Erklärungsmechanismen, sondern auch kommunikative: Wer erklärt was wem – in welcher Sprache?
4. Wohlbefinden & nachhaltige Arbeitsgestaltung
Human-Centered AI fragt nicht nur: „Funktioniert das System?“, sondern auch: „Wie wirkt es auf das Erleben der Arbeit?“
- Aktuelle Reviews zeigen, dass KI sowohl Ressourcen (Entlastung, bessere Information) als auch zusätzliche Anforderungen (Komplexität, Überwachungserleben, Unsicherheit) erzeugen kann.
- Ein positiver, human-zentrierter Einsatz orientiert sich an Modellen der Arbeitsgestaltung (z. B. Job Demands–Resources) und zielt auf psychische Gesundheit, Sinn und gute Beziehungen – nicht nur auf Output.
- Studien zu Human-Centered AI at Work betonen, dass KI-Einführung immer auch eine soziotechnische Intervention ist, die Rollen, Zusammenarbeit und Kompetenzanforderungen verändert.
Praxisimplikation: Human-Centered AI heißt, KI-Einführungen systematisch mitzugestalten und professionell zu begleiten – inklusive Beteiligung, Qualifizierung und Monitoring von psychischer Gesundheit und Wohlbefinden, nicht nur von Performance.
Was heißt das für Organisationen und Führungskräfte?
Human-Centered AI und ihre Einführung bedeuten, sich fortlaufend kritisch mit folgenden Punkten auseinanderzusetzen:
- Nutzen & Werte:
Welche konkreten menschlichen Ziele unterstützt unsere KI-Nutzung (z. B. Sicherheit, Qualität, Lernchancen, Gesundheit)? - Kontrolle:
Wo liegt heute tatsächlich die letztendliche Entscheidungshoheit – und ist das allen Beteiligten klar? - Transparenz:
Können betroffene Mitarbeitende in verständlicher Sprache nachvollziehen, wie KI-gestützte Entscheidungen zustande kommen? - Wohlbefinden:
Wie wirkt KI auf Belastung, Gerechtigkeitserleben und Sinn in der Arbeit – und messen wir das systematisch? - Beteiligung:
Wer wurde bei Auswahl, Einführung und Anpassung der KI-Lösungen einbezogen – und wer bislang nicht?
Human-Centered AI ist damit weniger ein technisches Feature, sondern ein Gestaltungsprinzip für die KI-Nutzung in Organisationen. Es geht um die Ausschöpfung technischer Möglichkeiten zum Wohle der Beschäftigten – ohne den Menschen dabei aus dem Blick zu verlieren.
Quellen zur Vertiefung (Auswahl)
- Shneiderman, B. (2022). Human-Centered AI. Oxford University Press. https://global.oup.com/academic/product/human-centered-ai-9780192845290
- High-Level Expert Group on AI (2019). Ethics Guidelines for Trustworthy AI. European Commission. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
- OECD (2019/2024). OECD AI Principles – Human-centred values and fairness. OECD.AI. https://www.oecd.org/en/topics/sub-issues/ai-principles.html
- Mazarakis, A. et al. (2023). What is critical for human-centered AI at work? – Toward an interdisciplinary theory.Frontiers in Artificial Intelligence, 6, 1257057. https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2023.1257057/full
- Watermann, L., Kubowitsch, S. & Lermer, E. (2025). AI and work design: A positive psychology approach to employee well-being. Gruppe. Interaktion. Organisation (GIO), 56(2), 311–320. https://link.springer.com/article/10.1007/s11612-025-00806-3
