adesso Blog

Die doppelte Disruption

Zwei Themen prallen im aktuellen Business-Kontext immer häufiger aufeinander, die auf den ersten Blick gegensätzlicher kaum sein könnten. Die künstliche Intelligenz (AI), vor allem sogenannte Generative AI (GenAI), ist mittlerweile gefühlt allgegenwärtig und hält Einzug in allen Ebenen. Themen wie Automatisierung oder Kategorisierung, wie sie bisher das Kapitel KI beherrschten, werden mittlerweile durch kreative Generierung von Inhalten, wie Texte, Bilder, Musik und Video und der Bewertung von Daten (Datenanalyse) und deren Vorhersagen ergänzt. Ist dies der nächste logische Schritt der Digitalisierung? Doch was bewirkt dieser massive KI-Einsatz psychologisch bei den Mitarbeiter:innen?

Technologie alleine steigert nicht die Produktivität eines Teams. Es braucht eine Unternehmenskultur, die Fehler im Umgang mit KI erlaubt und Angst vor der Überwachung nimmt. Ohne psychologische Sicherheit kommt es zu "Silence" (Schweigen) und "Compliance" (Dienst nach Vorschrift), statt zu Innovationen, erst recht wenn KI mit im Spiel ist.

Was ist Psychologische Sicherheit im KI-Kontext?

"Psychologische Sicherheit ist eine Atmosphäre, in der sich alle Teammitglieder öffnen können. Sie können Fragen stellen, Fehler zugeben, Kritik üben oder Bedenken äußern, ohne Konsequenzen fürchten zu müssen."(Definition psychologische Sicherheit | Brainbirds Glossar, 2024)

Nach Amy Edmondson ist es wichtig zu verstehen: Psychologische Sicherheit ist kein “Kuschelkurs”. Es ist kein Fehlen von Konflikten oder Einfordern von permanenter Freundlichkeit und Lobverteilung. Ganz im Gegenteil, eine derartige Atmosphäre soll dazu ermutigen, erst recht Kritik zu äußern und auch Konflikte zuzulassen oder Unwissenheit zuzugeben. Jedoch gleichzeitig den Menschen im Unternehmen die Sicherheit zu geben, dass ihnen auf Grund von Unwissenheit oder bei Äußerung von konstruktiver Kritik kein Nachteil entsteht.(Edmondson, 2019)

Im Bezug auf den Einsatz von GenAI bedeutet dies, dass die Mitarbeiter:innen sich erlauben dürfen zu sagen, "Ich weiß nicht, wie ChatGPT funktioniert." oder zunächst erst "austesten" möchten und Fehler machen dürfen.

Wenn diese Sicherheit nicht gegeben ist, haben Mitarbeiter:innen Angst davor zuzugeben, etwas nicht zu wissen oder zu verstehen. Bei Verwendung von GenAI kann dies dazu führen, dass selbst der Widerspruch gegenüber einem Tool - einem Algorithmus - eine unüberwindbare Hürde darstellt und Ergebnissen blind vertraut wird. Ruft man sich an dieser Stelle das Problem der Halluzinationen von GenAI in Erinnerung, potenziert sich dieses Risiko. (Dell’Acqua et al., 2023)

Ein warnendes Beispiel liefern jüngste Schlagzeilen aus Australien, in welchem ein großes Beratungsunternehmen eine hohe Strafzahlung hinnehmen muss, da generierte AI Inhalte zu wenig geprüft wurden und die darin enthaltenen falschen Daten in einem Report veröffentlicht wurden.

Der „kluge“ Assistent und das Imposter-Syndrom

Studien, wie die BCG Studie aus 2023 der Harvard Business School, haben mittlerweile gezeigt, dass mit Hilfe von KI eine Produktivitätssteigerung durchaus vorhanden ist. Doch ohne psychologische Sicherheit in Unternehmen, um auch offen über Ängste, Sorgen und Fehler zu sprechen mit dem Einsatz von KI, kann sich eine Angst vor Obsoleszenz entwickeln - FOBO, Fear of Becoming Obsolete. Oftmals gepaart mit dem sogenannten Imposter-Syndrom, bei welchem Menschen ihre vorhandenen und messbaren Leistungen als nicht gut genug empfinden und auf Parameter wie Glück oder Zufall zurückführen. Vielleicht werden KI Anwendungen wie ChatGPT heimlich verwendet, weil die Angst davor zugeben zu müssen, kein Prompt Engineer zu sein, zu groß ist und bestärken ein Imposter-Syndrom, getrieben von der Sorge, nicht gut genug zu sein oder “aufzufliegen”, sollte die eigene Unkenntnis ans Licht kommen.

Teams, die offen und ehrlich von Schwächen, Erfahrungen und Erkenntnissen untereinander berichten, weisen fast immer auch eine effektivere Lernkurve, höhere Effizienz und gesteigerte Produktivität auf. Zudem entstehen Innovation und Kreativität primär dort, wo psychologische Sicherheit herrscht. (Dell’Acqua et al., 2023; Gutiérrez, 2025)

Leadership in der Ära der Algorithmen

Es gibt keine Pauschalantwort – keinen ultimativen Guide – für Führungskräfte oder Manager: innen, um ein psychologisch sicheres Team im AI Zeitalter aufzubauen. Und dennoch gibt es zumindest ein paar Aspekte, welche auf jeden Fall berücksichtigt werden sollten.

Transparenz über den Einsatz von KI

Diese Transparenz ist nicht nur durch den seit August 2024 geltenden EU-AI-Act ohnehin verpflichtend, sie ist auch schlicht und ergreifend fair den Mitarbeiter:innen gegenüber. Wissenschaftlich betrachtet ist Transparenz weit mehr als Informationsweitergabe. Sie zahlt direkt auf das ein, was Jason Colquitt als 'Procedural Justice' (Verfahrensgerechtigkeit) bezeichnet. Studien von Newman zeigen im Kontext von algorithmischem Management deutlich: Mitarbeiter:innen akzeptieren KI-gestütztes Feedback nur dann, wenn die Funktionsweise des Algorithmus offengelegt wird. Bleibt die 'Black Box' verschlossen, sinkt nicht nur die Akzeptanz, sondern – wie Bankins in Bezug auf den Psychologischen Vertrag darlegt – auch das grundlegende Vertrauen in den Arbeitgeber. Daher gilt: Gegenüber den Mitarbeiter:innen sollte eine Transparenz über die Absicht, über die Funktionsweise, auch über eigene Inkompetenzen im Umgang mit KI dargelegt werden und vor allem die sogenannte "Human Guarantee" - also das Veto-Recht des Menschen klar hervorgehoben werden. (Bankins et al., 2024; Colquitt, 2001; Nembhard & Edmondson, 2006; Newman et al., 2020; Rousseau, 1989)

Psychische Sicherheit entsteht im KI-Kontext nur, wenn drei Fragen transparent beantwortet sind:

  • Das Warum: Dient die KI der Effizienzsteigerung oder dem Personalabbau?
  • Das Wie: Welche Daten nutzt der Algorithmus und welche ignoriert er?
  • Das Wer: Wer trägt die Verantwortung für einen Fehler? Prompt oder Mensch?

Führungskräfte, die diese Antworten schuldig bleiben, erzeugen ein Vakuum, das sich mit Angst füllt. Diejenigen, die offenlegen - auch die eigene Unsicherheit im Umgang mit der neuen Technologie - schaffen den Nährboden für Innovation. (Deci & Ryan, 2000; Lebovitz et al., 2022; Newman et al., 2020; Wiklund, 2022)

„Human in the Loop“ (HITL)

In der populären Diskussion wird das Konzept des Human in the Loop (HITL) oft auf eine reine Freigabe-Funktion reduziert: Der Algorithmus bereitet vor, der Mensch klickt auf „Genehmigen“. Die aktuelle Forschung zeigt jedoch, dass dies zu kurz greift und sogar gefährlich sein kann. Wissenschaftler wie Santoni De Sio argumentieren, dass die bloße Anwesenheit eines Menschen nicht ausreicht. Vielmehr bedarf es einer “Meaningful Human Control”. (Santoni De Sio & Mecacci, 2021)

Diese liegt nur vor, wenn Mitarbeiter:innen über zwei Ressourcen verfügen:

1. Kognitive Kapazität: Das Verständnis, warum die KI zu einem Ergebnis gekommen ist (Explainability) und die Zeit, dieses kritisch zu prüfen.

2. Organisatorische Autorität: Die psychologische Sicherheit, eine KI-Empfehlung abzulehnen, ohne sich für Ineffizienz rechtfertigen zu müssen.

Fehlt die psychische Sicherheit, degeneriert der Human in the Loop zur „Moral Crumple Zone“(Elish, 2019): Der Mensch dient nicht der Kontrolle, sondern lediglich als rechtlicher Blitzableiter für algorithmische Fehler. Wahre Integration von KI erfordert daher, wie Shneiderman in seinem Framework für Human-Centered AI darlegt, kein "Entweder-oder" zwischen Automatisierung und Kontrolle, sondern Systeme, die durch hohe Automatisierung die menschliche Selbstwirksamkeit erhöhen, statt sie zu beschneiden. (Shneiderman, 2022)

Ohne psychische Sicherheit verstärkt sich der Automation Bias, weil das Hinterfragen der Maschine als soziales Risiko wahrgenommen wird. Damit wird der "Human in the Loop" wirkungslos.

Fazit & Ausblick

Zusammenfassend lässt sich festhalten, dass Künstliche Intelligenz in Organisationen weit mehr ist als eine technologische Implementierung. Sie fungiert als soziologischer Verstärker. In einer toxischen Unternehmenskultur, die von Misstrauen und Kontrolle geprägt ist, wirkt KI als Brandbeschleuniger für Angst (Anxiety Zone nach Edmondson). Algorithmen werden hier schnell als Überwachungsinstrumente wahrgenommen, was zu "Silence" und Risikovermeidung führt. In einer psychologisch sicheren Umgebung hingegen entfaltet KI ihre Wirkung als Innovationsmotor (Learning Zone). Hier wird die Technologie nicht als Ersatz für den Menschen, sondern als Erweiterung menschlicher Fähigkeiten begriffen.

Der Mensch als Sicherheitsnetz der Transformation

Dieser kulturelle Aspekt wird in der strategischen Planung oft sträflich vernachlässigt. Dimitris Bountolos, Chief Information and Innovation Officer bei Ferrovial, brachte es in einem Interview über die häufigsten Fehler in der KI-Strategie auf den Punkt:

“At the end, any transformation across the entire company is connected with the human factor.” (Gutiérrez, 2025).

Technologie skaliert, aber Menschen transformieren. Das bedeutet für Führungskräfte: Wer in KI investiert, ohne im gleichen Maße in den "Psychological Contract" und das Vertrauen der Belegschaft zu investieren, baut ein Haus auf Sand. Die oft zitierte Angst, dass "GenAI den Menschen ersetzen wird", ist in diesem Kontext neu zu bewerten. Die präzisere Formel lautet: Eine KI wird den Menschen nicht ersetzen. Aber ein Mensch, der KI in einem psychologisch sicheren Umfeld effektiv nutzt, wird den Menschen ersetzen, der sich aus Angst vor Fehlern der Technologie verweigert.

Ausblick: Das Paradoxon der Kompetenzentwicklung

Während wir die Produktivitätsgewinne durch KI feiern, müssen wir uns abschließend einer unbequemen, strategischen Frage stellen, die über den nächsten Quartalsbericht hinausgeht: Wie lernen unsere Junioren in Zukunft?

Wenn KI-Tools (wie GitHub Copilot oder ChatGPT) zunehmend die "einfachen" Aufgaben übernehmen – das Schreiben von Standard-Code, das Verfassen von Zusammenfassungen, die erste Recherche –, entfällt das klassische "Übungsfeld", auf dem Berufseinsteiger bisher ihre Expertise und Intuition aufgebaut haben. Wir laufen Gefahr, eine Generation von "Prompt-Manager:innen" heranzuziehen, denen das tiefe Verständnis für die Materie fehlt (Kompetenzerosion). Organisationen müssen daher nicht nur Antworten auf die Frage finden, wie sie KI jetzt nutzen, sondern wie sie in einer KI-dominierten Welt morgen noch echte Experten ausbilden. Die Antwort darauf liegt nicht im Algorithmus, sondern in einer neuen Kultur des Mentorings und des bewussten "Selber-Denkens" – ermöglicht durch psychische Sicherheit.

Sind wir bereit, kurzfristige Effizienz zu opfern, um langfristig menschliche Exzellenz zu sichern? Die Antwort darauf gibt kein Chatbot, sondern unsere Unternehmenskultur.


Bild Alexander Schwingenschrot

Autor Alexander Schwingenschrot

Alexander Schwingenschrot ist Senior Consultant bei adesso Austria.

Kategorie:

KI

Schlagwörter:

Künstliche Intelligenz (KI)