NEWSLETTER ABONNIEREN
Sie interessieren sich für die Projekte und Ergebnisse unserer Zukunftslabore? Unser Newsletter fasst die wichtigsten Ereignisse alle zwei Monate zusammen.
Jetzt anmeldenZur Gestaltung einer digitalen Arbeitswelt gehört auch der Einsatz Künstlicher Intelligenz (KI). Eine zentrale Frage dabei ist, ob Menschen dieser Technologie vertrauen und sie akzeptieren, oder ob sie sie ablehnen. Im vergangenen Jahr fanden die Wissenschaftler*innen des Zukunftslabors Gesellschaft & Arbeit heraus, dass die Auswirkungen einer transparenten KI auf das menschliche Verhalten nicht hinreichend erforscht sind. Außerdem ist nicht bekannt, wie Menschen auf Algorithmen reagieren, die sich über die Zeit verbessern. Deshalb führten die Wissenschaftler*innen dieses Jahr zwei Studien zum Verhältnis von Mensch und Künstlicher Intelligenz durch.
Beim ersten Versuch „Ökonomische Verhandlung zwischen zwei Akteuren“ sollten zwei Personen Geld untereinander aufteilen. Wenn sie es nicht schafften, sich zu einigen, erhielt niemand etwas. Zunächst sollten sich die Proband*innen ohne den Einsatz einer Technologie einigen. Dies gelang, nur wenige der Proband*innen fühlten sich benachteiligt oder unfair behandelt. Dann wurde die Ausgangssituation variiert: Person A durfte eine automatisierte Entscheidungshilfe oder ein Recommender System hinzuziehen, Person B nicht. Beim Einsatz automatisierter Entscheidungshilfen trifft der Mensch die Entscheidung, hat aber einen Algorithmus zur Seite, der Empfehlungen ausgibt. Das Recommender System entscheidet selbstständig, ohne den Menschen. Mit diesem Versuch wollten die Wissenschaftler*innen herausfinden, ob bzw. wie sich das Verhalten der Proband*innen ändert. Das Ergebnis: Person B fühlte sich benachteiligt und verlangte deutlich mehr Geld, auch auf die Gefahr hin, sich nicht zu einigen und dadurch kein Geld zu erhalten. Als der Person B erklärt wurde, wie die Empfehlung des Algorithmus zustande kam, fühlte sie sich besser, aber sie empfand die Verhandlung immer noch als unfair. Damit konnten die Wissenschaftler*innen die Frage beantworten, dass Algorithmen das Verhalten der Menschen ändern. Person B empfand die algorithmische Entscheidungshilfe als unfair und war daher bereit, auf eigene Kosten die Verhandlung scheitern zu lassen. Der Grund für das unterschiedliche Verhalten ist demnach mutmaßlich sozialer Natur, nicht ökonomischer.
Die zweite Untersuchung „Algorithmus Aversion“ zielte auf das Phänomen ab, dass Menschen die Entscheidungen von Algorithmen ablehnen. Die Untersuchung sollte zeigen, inwiefern Menschen zwischen lernenden und nicht lernenden Algorithmen unterscheiden. Ein lernender Algorithmus verbessert sich auf Basis seiner Fehler und entwickelt sich weiter. Dabei gibt es verschiedene Lernformen; Algorithmen können sich kontinuierlich oder sprunghaft verbessern. Bei der Untersuchung sollten die Proband*innen eine bestimmte Zahl ermitteln und die Aussage eines Algorithmus einbeziehen. Je näher sie dem korrekten Wert kamen, desto mehr Geld verdienten sie. Das Ergebnis: Wenn der Algorithmus auch nur ein einziges Mal eine Fehlentscheidung getroffen hat, dann vertrauen die Proband*innen ihm nicht mehr – selbst wenn der Algorithmus dazulernt und seine Empfehlungen verbessert. Das Lernen hat also nicht geholfen, das Vertrauen der Proband*innen zu gewinnen.
Unsere Studien zeigen, wie eine Zusammenarbeit der Verhaltensforschung und der Informatik dabei helfen kann, digitale Innovationen mit gesellschaftlichen Bedürfnissen in Einklang zu bringen. Die Informatik besitzt technische Expertise, und kann der Verhaltensforschung z. B. erklären, wie ein Algorithmus funktioniert, oder welche Auswirkungen die Trainingsdaten auf das Endergebnis haben. Die Verhaltensforschung liefert wiederum quantifizierbare, kausale Erkenntnisse darüber, wie Menschen auf unterschiedliche Algorithmen reagieren, und welche Voraussetzungen vorhanden sein müssen, damit Menschen Algorithmen nutzen.
Im nächsten Jahr werden die Wissenschaftler*innen ihre Untersuchungen zur Algorithmus- Aversion fortführen. Außerdem wollen sie anknüpfend an die Untersuchung „Ökonomische Verhandlung zwischen zwei Akteuren“ die sozialen und ökonomischen Gründe näher betrachten: Welche sozialen Gründe überwiegen vor ökonomischen Gründen?
Am Teilprojekt „Künstliche Intelligenz und Organisationsprozesse“ sind folgende Forschende seit Beginn involviert: