adesso Blog

Menschen von oben fotografiert, die an einem Tisch sitzen.

Herbert Simon, ein bedeutender Wissenschaftler im Bereich der Entscheidungsprozesse in Wirtschaftsorganisationen, definierte um 1955 den Problemlösungsprozess entlang eines rationalen Denkprozesses:

  • 1. Ein Set von Lösungsalternativen ist gegeben.
  • 2. Jede Lösungsalternative ist einem bestimmten Mehrwert zugeordnet (zum Beispiel eine Geldsumme x am Gewinn).
  • 3. Präferenzen gegenüber diesen bestimmten Mehrwerten sind bekannt.

Sind diese Informationen hinreichend bekannt (Lösungsalternativen, Mehrwehrte und Präferenzen), lassen sich optimale Lösungsalternativen bestimmen. Die Psychologen Daniel Kahnemann und Amos Tversky haben später (circa 1982) hervorgehoben, dass eine wesentliche Stärke und Schwäche der menschlichen Entscheiderin bzw. des menschlichen Entscheiders das Urteilsvermögen in schlecht strukturierten Problemstellungen ist. Hier haben KI-Anwendungen bisher Schwierigkeiten gehabt.

Die an der Carnegie School entwickelte Organisationstheorie nimmt an, dass ein Mensch ein begrenztes Rationalisierungsvermögen hat. Dies liegt an der Limitation, große Mengen an Informationen zu verarbeiten. Dazu gehören unter anderem Aufgaben wie bei der Trendanalyse, die zuvor eine Auswertung von großen Datenmengen und vor allem verschiedenen Datenquellen voraussetzt, die häufig die kognitiven Kapazitäten eines Menschen überstiegen. Somit fußt der menschliche Entscheidungsprozess nur auf kleineren Lösungsräumen, also auf weniger Alternativen, um ein Problem zu lösen, oder weniger Informationen und Daten, die berücksichtigt werden können. Um die Risiken und Nachteile der limitierten Informationsverarbeitung abzuschwächen, wird in den Unternehmensstrukturen der Entscheidungsprozess auf den Schultern vieler Entscheiderinnen und Entscheider verteilt.

KI steckt schon in vielen alltäglichen Services, Produkten und Unternehmensprozessen. So erfüllen KI-Anwendungen im unternehmerischen Kontext bereits wichtige kognitive Schlüsselaktivitäten bei Aufgaben – etwa bei der Lösung von Entscheidungsproblemen. Im Duden wird der Begriff „kognitiv“ als „das Wahrnehmen, Denken, Erkennen betreffend“ definiert. Es handelt sich hierbei also um geistige Fähigkeiten.In der Managementforschung wurden menschliche Kooperations- und Kollaborationsformen ausgiebig untersucht und sind nach wie vor ein lebendiger Forschungszweig.

Die Einführung von KI entspricht aus Managementsicht der Einführung neuer Agenten im Unternehmen und erhöht dabei die Komplexität in den Unternehmensstrukturen. Darüber hinaus geht damit ein direkter Einfluss auf unsere Entscheidungen einher. Aus diesem Grund muss danach gefragt werden, wie eine vertrauensvolle Integration von solchen KI-Agenten in die bestehenden Unternehmensstrukturen mit der menschlichen Belegschaft überhaupt gestaltet werden kann. Besonders Fragestellungen hinsichtlich Trustworthy AI aus einer soziotechnischen Perspektive, getrieben durch Prinzipien wie Transparenz, Fairness, Erklärbarkeit, Sicherheit und Privatsphäre, rücken in den Vordergrund. Die Frage ist, wie die technische Ausgestaltung hinsichtlich dieser Prinzipien aussehen kann und wie das Zusammenspiel zwischen Mensch und Maschine funktionieren soll.

Mit den Anforderungen, dass eine KI transparent oder fair sein soll, wird in der IT-Implementierung ein Stück weit das Level eines Epics überschritten. Daher ergeben sich der Wunsch sowie der Bedarf, von den relativ globalgalaktischen Ebenen der zuvor genannten Prinzipien auf eine handhabbarere Anforderungsebene zu kommen. Dafür bieten sich bereits etablierte Rahmenwerke aus dem Bereich der Automatisierung bezüglich der vier Typen des Reaktionsverhaltens von Menschen gegenüber einer Technologie an. Diese vier Typen des Reaktionsverhaltens sind nach Raja Parasuraman und Victor Riley:

  • 1. Gebrauchen,
  • 2. nicht gebrauchen,
  • 3. falsch gebrauchen und
  • 4. missbrauchen.

Im Folgenden erkläre ich, was diese vier Typen von menschlichem Reaktionsverhalten gegenüber Technologien sind, und gebe einen groben Einblick, wie diesen begegnet werden kann. Dabei kann ich nicht in die konkreten Implementierungsdetails gehen, da dies den Umfang meines Blog-Beitrag sprengen würde.

Menschen müssen es selber wollen

Für den Gebrauch von Technologie bedarf es unserer eigene, selbstgetriebenen Motivation oder des Willens, eine Technologie benutzen zu wollen. Der selbstgetriebene Gebrauch von Technologie kann durch Features wie Zuverlässigkeit und effiziente Performanz erzielt werden. Dieser Wille wird einerseits getrieben durch die Situation oder unsere eigenen Voreinstellungen zu der jeweiligen Technologie und andererseits durch unsere unmittelbare Umgebung. Diese Voreinstellungen bewegen sich zwischen zwei Extremen:

  • 1. Ein Mensch kann offen für den Einsatz einer Technologie sein
  • 2. Ein Mensch kann negativ gegenüber einer Technologie eingestellt sein

Oft hört man Aussagen wie „Dieser Algorithmus ist total super und sieht gut aus, aber ich bin auch ohne ihn ganz glücklich.“ Solche Einstellungen sind tatsächlich schon ein Bias an sich, denn man würde sich selber in eine soziale Ungleichheit manövrieren. Das heißt, selbst weigert man sich, die Potenziale von Algorithmen zu nutzen und jemand anders, der Algorithmen nutzt, hat entsprechende Vorteile. Solchen Aversionen gegenüber Algorithmen kann allerdings durch iterative Interaktionen und gemeinsame Modifizierung der Schnittstelle zwischen Mensch und Maschine entgegengewirkt werden. Auf diese Weise kann die Wahrscheinlichkeit des selbstgetriebenen Gebrauchs gesteigert werden.

Menschen können Dinge auch verkehrt benutzen

Ein falscher Gebrauch meint die nicht korrekte Nutzung von Technologie oder auch ein blindes Vertrauen in Technologie. Der falsche Gebrauch ist somit das Ergebnis von Bequemlichkeit und ist besonders im Zusammenhang mit KI gefährlich, da der Einsatz einer KI in schlecht strukturierten Aufgabenstellungen kein Garant für eine zuverlässige Arbeit ist. Bequemlichkeit eines Menschen führt zudem zum Verlernen von Fähigkeiten. Damit einher geht auch der Verlust von Verantwortungsbewusstsein oder auch der Fähigkeit, bei Problemen einschreiten zu können. Einem falschen Gebrauch kann mit wiederkehrenden Schulungen sowie mit einer angemessen definierten Mensch-und-Maschine-Interaktion entgegengewirkt werden. Wenn ihr mehr darüber erfahren möchtet, werft auch einen Blick in meinen Blog-Beitrag zum Thema Trustworthy AI – eine wilde Spannung zwischen Mensch und Maschine Interaktion.

Menschen sind auch misstrauisch

Dem richtigen und falschen Gebrauch steht logischerweise der Nichtgebrauch gegenüber. Dieser meint die aktive Verweigerung der Nutzung von Algorithmen. Gegenmaßnahmen sind auch hier die iterative Optimierung der Schnittstellen zwischen Mensch und Maschine sowie wiederkehrende Schulungen, um ein Verständnis der Potenziale von Algorithmen zu vermitteln. Weiterhin müssen Prozesse zum Überwachen der Algorithmen aufgestellt werden. So können alle beteiligten Personen Berichte über die Aktivitäten der Algorithmen beziehen und bei Bedarf korrektive Maßnahmen einleiten. Die Möglichkeit zur Durchsetzung von Kontrollmechanismen fördert das Vertrauen in solchen Konstellationen. Der Mensch präferiert dabei interaktive Möglichkeiten, um gegebenenfalls das persönliche Detailmaß selbstständig steuern zu können. Die Zertifizierung von solchen Algorithmen kann ebenfalls zu mehr Vertrauen führen.

Menschen können auch böse sein

Missbrauch bezieht sich auf ein gezieltes Design oder das mutwillige Motiv eines Menschen, mit einer Technologie eigene und individuelle Zielstellungen zu erreichen, ohne Rücksichtnahme auf Konsequenzen. In der Praxis haben sich für solche unerwünschten Verhaltensweisen sogenannte Verhaltenskodexe entwickelt. Sie geben ein akzeptables Verhalten vor – etwa im Bereich der Wirtschaftsprüfung oder auch für Ärztinnen und Ärzte (beispielsweise der hippokratische Eid). Außerdem existieren regulative Rahmenwerke, um Normen für akzeptables Verhalten zu definieren. Ein Beispiel ist der Sarbanes-Oxley Act (SOX), der als Reaktion nach dem Enron-Skandal in der Wirtschaftsprüfung zur Durchsetzung von mehr Transparenz von Finanzberichten sorgt.

Bild Lilian  Do Khac

Autorin Lilian Do Khac

Lilian Do Khac beschäftigt sich mit der Konzeption und Implementierung von KI-Lösungen für die datengetriebene Entscheidungsunterstützung. Trustworthy-AI-Anforderungen spielen dabei eine signifikante Rolle. In diesem Bereich ist sie nicht nur aus IT-Implementierungssicht unterwegs, sondern auch als Wissenschaftlerin.

Diese Seite speichern. Diese Seite entfernen.