Was ist Human-Centered AI?

Vier Prinzipien menschenorientierter KI-Nutzung

Künstliche Intelligenz ist längst im Alltag von Organisationen angekommen: in Bürosoftware, HR-Systemen, Prognosemodellen, Service-Bots oder generativen Assistenztools. In vielen Diskussionen steht jedoch vor allem die technische Leistungsfähigkeit im Vordergrund: mehr Effizienz, bessere Vorhersagen, schnellere Prozesse.

Aus arbeits- und organisationspsychologischer Sicht sollte aber eine andere Frage im Mittelpunkt stehen:

Wie können wir KI so gestalten und einsetzen, dass sie Menschen wirklich unterstützt – statt sie zu überfordern, zu ersetzen oder zu entmündigen?

Genau das ist Human-Centered AI (HCAI).

Was bedeutet „Human-Centered AI“?

Vereinfacht ausgedrückt: Human-Centered AI verschiebt den Fokus weg von der reinen Technologie hin zur Mensch–KI-Interaktion. KI-Systeme sollen so gestaltet werden, dass sie menschliche Fähigkeiten, Werte und Bedürfnisse unterstützen – statt sie zu unterlaufen.

  • Shneiderman (2022) beschreibt HCAI als Ansatz, bei dem KI Menschen unterstützt, ihre Selbstwirksamkeit stärkt, ihnen aber die letztendliche Kontrolle über wichtige Entscheidungen belässt.
  • Die EU-Ethikleitlinien für „Trustworthy AI“ betonen in ähnlicher Weise menschliche Handlungsmacht, Fairness, Transparenz und Rechenschaftspflicht als Grundpfeiler vertrauenswürdiger KI.
  • Die OECD-Prinzipien fordern explizit eine menschenorientierte und wertebasierte Nutzung von KI, die Menschenrechte und demokratische Werte respektiert.

Human-Centered AI ist also kein „nice to have“, sondern ein Ordnungsrahmen dafür, wie KI in Organisationen integriert wird – technisch, organisatorisch und psychologisch.

Vier Prinzipien menschenorientierter KI-Nutzung

Vor dem Hintergrund existierender internationaler Leitlinien und aktueller organisationspsychologischer Forschung lassen sich vier Kernprinzipien menschenorientierter KI-Nutzung formulieren, an denen sich Organisationen orientieren können.


1. Menschenwürde & Fairness

Human-Centered AI respektiert grundlegende Rechte, schützt vor Diskriminierung und unterstützt ein gerechtes Erleben von Entscheidungen.

  • KI-gestützte Entscheidungen, z. B. im Recruiting, in der Leistungsbewertung oder auch in der Schichtplanung, müssen mit Prinzipien organisationaler Gerechtigkeit vereinbar sein (Verfahren, Ergebnisse, Umgangston).
  • Verzerrte Trainingsdaten oder ungeeignete Kriterien können historische Ungleichheiten reproduzieren und bestimmte Gruppen systematisch benachteiligen.
  • Internationale Rahmen wie die EU-Leitlinien und die OECD-Prinzipien fordern daher ausdrücklich Diversität, Nichtdiskriminierung und Fairness über den gesamten Lebenszyklus von KI-Systemen.

Praxisimplikation: Human-Centered AI heißt, Fairness nicht nur als technisches „Bias-Problem“ zu begreifen, sondern als organisationales Thema, das Kommunikation, Beschwerdewege und Monitoring einschließt.


2. Autonomie & menschliche Kontrolle

Human-Centered AI garantiert, dass Menschen die entscheidende Steuerungshoheit behalten. Das ist gerade bei risikoreichen oder normativ sensiblen Entscheidungen wichtig.

  • Shneiderman spricht von der Notwendigkeit, „menschliche Kontrolle zu sichern, während die Automatisierung steigt“.
  • Die EU-Ethikleitlinien fordern explizit „Human agency and oversight“: Menschen müssen KI-Systeme überwachen, eingreifen und ihre Empfehlungen übersteuern können.

In der Praxis geht es um Fragen wie:

  • Welche Entscheidungen darf eine KI allein vorbereiten – und welche nicht?
  • Wo ist Human-in-the-Loop (menschliche Freigabe) oder Human-on-the-Loop (Überwachung, Eingriffsmöglichkeit) zwingend?
  • Welche Override-Regeln sind definiert – und kennen Mitarbeitende diese?

Praxisimplikation: Human-Centered AI erfordert klare Governance: Rollen, Verantwortlichkeiten und Eingriffsrechte müssen genauso definiert sein wie technische Spezifikationen.


3. Transparenz & Erklärbarkeit

Menschen müssen verstehen können, was KI-Systeme tun, warum sie bestimmte Empfehlungen geben und welche Grenzen sie haben.

  • Die EU-Guidelines nennen Transparenz und Erklärbarkeit als Kernanforderungen vertrauenswürdiger KI. Das ist auch wichtig für das Kohärenzerleben und damit das psychische Wohlbefinden aller Beschäftigten.
  • Forschung zu erklärbarer KI (XAI) zeigt, dass nachvollziehbare Erklärungen Vertrauen und Fairnesswahrnehmung verbessern können – auch wenn sie Algorithmus-Skepsis nicht vollständig auflösen.

Im Organisationskontext bedeutet das:

  • Nutzer:innen wissen, welche Daten in Modelle einfließen und welche Annahmen sie implizit machen.
  • Entscheidungen, die Mitarbeitende stark betreffen (z. B. Personalauswahl, Beförderungen, Dienstpläne), sind begründbar und überprüfbar.
  • Es gibt Ansprechpersonen und Prozesse, um Entscheidungen zu hinterfragen.

Praxisimplikation: Human-Centered AI braucht nicht nur technische Erklärungsmechanismen, sondern auch kommunikative: Wer erklärt was wem – in welcher Sprache?


4. Wohlbefinden & nachhaltige Arbeitsgestaltung

Human-Centered AI fragt nicht nur: „Funktioniert das System?“, sondern auch: „Wie wirkt es auf das Erleben der Arbeit?“

  • Aktuelle Reviews zeigen, dass KI sowohl Ressourcen (Entlastung, bessere Information) als auch zusätzliche Anforderungen (Komplexität, Überwachungserleben, Unsicherheit) erzeugen kann.
  • Ein positiver, human-zentrierter Einsatz orientiert sich an Modellen der Arbeitsgestaltung (z. B. Job Demands–Resources) und zielt auf psychische Gesundheit, Sinn und gute Beziehungen – nicht nur auf Output.
  • Studien zu Human-Centered AI at Work betonen, dass KI-Einführung immer auch eine soziotechnische Intervention ist, die Rollen, Zusammenarbeit und Kompetenzanforderungen verändert.

Praxisimplikation: Human-Centered AI heißt, KI-Einführungen systematisch mitzugestalten und professionell zu begleiten – inklusive Beteiligung, Qualifizierung und Monitoring von psychischer Gesundheit und Wohlbefinden, nicht nur von Performance.


Was heißt das für Organisationen und Führungskräfte?

Human-Centered AI und ihre Einführung bedeuten, sich fortlaufend kritisch mit folgenden Punkten auseinanderzusetzen:

  • Nutzen & Werte:
    Welche konkreten menschlichen Ziele unterstützt unsere KI-Nutzung (z. B. Sicherheit, Qualität, Lernchancen, Gesundheit)?
  • Kontrolle:
    Wo liegt heute tatsächlich die letztendliche Entscheidungshoheit – und ist das allen Beteiligten klar?
  • Transparenz:
    Können betroffene Mitarbeitende in verständlicher Sprache nachvollziehen, wie KI-gestützte Entscheidungen zustande kommen?
  • Wohlbefinden:
    Wie wirkt KI auf Belastung, Gerechtigkeitserleben und Sinn in der Arbeit – und messen wir das systematisch?
  • Beteiligung:
    Wer wurde bei Auswahl, Einführung und Anpassung der KI-Lösungen einbezogen – und wer bislang nicht?

Human-Centered AI ist damit weniger ein technisches Feature, sondern ein Gestaltungsprinzip für die KI-Nutzung in Organisationen. Es geht um die Ausschöpfung technischer Möglichkeiten zum Wohle der Beschäftigten – ohne den Menschen dabei aus dem Blick zu verlieren.

Quellen zur Vertiefung (Auswahl)