Aktuell in der ZKM
Überlegungen zur Akzeptanz KI-generierter Vergleichsvorschläge aus psychologischer Sicht (Mohnert, ZKM 2023, 199)
Mit der neuen leichten Zugänglichkeit von künstlicher Intelligenz zur Datenverarbeitung und Textgenerierung geht die Idee einher, Vergleichsvorschläge automatisch generieren zu lassen. Die Hoffnung, dass deren Lösungen „objektiv“ seien und die zerstrittenen Parteien somit zum Einlenken brächten, kann der Algorithmus jedoch aus technologischen und psychologischen Gründen nicht einlösen. Dieser Beitrag beleuchtet die Hintergründe und zeigt realistischere Möglichkeiten auf.
A. Einleitung
B. Womit KI uns unter die Arme greifen kann
I. Typisch menschliche Grenzen
II. KI, das Sammelwerkzeug
C. Was trotz KI nicht leichter wird
I. Intransparenz als Akzeptanzproblem
II. Psychologisch bedingtes Rollenverhalten
III. Menschen erwarten Menschlichkeit
D. Fazit
A. Einleitung
Wenn Menschen aufeinandertreffen, besteht immer Konfliktpotential: Sei es, weil A und B unterschiedliche Interessen verfolgen (Bewertungskonflikt), zwar dasselbe Ziel avisieren, aber sich uneins über den richtigen Weg dorthin sind (Beurteilungskonflikt), um knappe Ressource konkurrieren (Verteilungskonflikt) oder schlichtweg auf sozialer Ebene nicht auf einen grünen Zweig finden (Beziehungskonflikt). Die Praxis zeigt sämtliche denkbaren Mischformen. Manche Konflikte sind so vertrackt oder eskalieren auf eine Stufe, dass sie eine neutrale Instanz zur Lösung erforderlich machen, sei es in Form einer eigens eingerichteten Schlichtungsstelle oder mithilfe eines zertifizierten Mediators nach § 5 II MediationsG. Leicht ist es oft dennoch nicht, alle Spannungen zur allseitigen Zufriedenheit beizulegen. Es ist daher verständlich, dass das Aufkommen neuer Technologien einen Schub frischer Hoffnung gibt, sich nun vielleicht endlich eine Menge Mühe und Frustration sparen zu können.
Eine solche neue (oder besser gesagt: neuerdings dem breiten Publikum leichter zugängliche) Technologie ist der Einsatz künstlicher Intelligenz (KI). Wie so oft, steht das Kürzel „künstliche Intelligenz“ für eine variantenreiche Gruppe aus Technologien von höchst unterschiedlichen Graden an Komplexität und Einsatzgebieten. Die Hochrangige Expertengruppe der Europäischen Union (HLEG) definiert KI als ein von Menschen geschaffenes Softwaresystem, das, auf ein komplexes Ziel angesetzt, physisch oder digital handelt, indem es seine Umwelt durch Datensammlung wahrnimmt, diese Daten interpretiert, aus den Daten abgeleitetes Wissen schlussfolgert oder Informationen verarbeitet und über die passende Maßnahme entscheidet, um das vorgegebene Ziel zu erreichen. Häufig wird KI konzipiert, um menschliches Entscheidungsverhalten nachzubilden, allerdings soll die KI dabei vorzugsweise schnellere und „bessere“ Resultate erzeugen. Schon die Bezeichnung „künstliche Intelligenz“ erweckt den Eindruck, scheinbar unabhängig von den Fallstricken des Faktors Mensch in einem Aushandlungsprozess agieren zu können. In dem Vorschussvertrauen, das dem Sammelbegriff der zahlreichen Spielarten von KI-Anwendungen entgegengebracht wird, schwingt nicht zuletzt die Erwartung mit, ein „objektiv gutes“ Ergebnis sei generierbar und dann für die Kontrahenten des Konflikts einsichtigerweise als das „bestmögliche“ erkennbar und akzeptabel. Kurzum, die KI soll die Zähigkeit eines sozialen Konfliktes auflösen. Ob KI diese Hoffnung erfüllen kann, ist Gegenstand der nachfolgenden Ausführungen.
B. Womit KI uns unter die Arme greifen kann
Zweifelsohne, KI hat ihren Nutzen; in bestimmten Aspekten der Informationsauswertung kann sie dem Menschen überlegen sein. Wohlgemerkt, kann – hierfür müssen einige Vorbedingungen erfüllt sein.
I. Typisch menschliche Grenzen
Menschliche Gehirne haben eine beschränkte Informationsaufnahme- und -verarbeitungskapazität. Ein erheblicher Anteil der Daten, die allzeit auf unsere Sinnesorgane einprasseln, wird daher bereits auf der Wahrnehmungsebene nach Relevanzkriterien radikal aussortiert. Die Aufmerksamkeitsspanne für kognitive Problemlösung ist begrenzt und zudem beeinflussbar. Es gelingt uns also in keinem Fall, die objektive Realität als Ganzes zu erfassen. Zugleich neigen Menschen dazu, die aufgenommenen Informationen in einfacher zu handhabende Schemata mittels sog. Urteilsheuristiken und Gestaltgesetzen zu überführen. Das macht unser Leben zwar im Alltag deutlich leichter, da wir auch ohne vollständige Kenntnis der Lage zu schnellen und im Regelfall hinreichend guten Entscheidungen kommen, verleitet jedoch auch zu systematischen Fehleinschätzungen.
Dieses Problem beeinträchtigt auch ganz konkret die Arbeit eines Mediators bzw. Schlichters, der unterstützen soll, einen guten Vergleichsvorschlag auszuarbeiten. Bereits beim Versuch, den Sachverhalt verzerrungsfrei zu erfassen und zu überblicken, was in vergleichbaren Fällen in der Vergangenheit von anderen Parteien als annehmbarer Kompromiss empfunden wurde, kommt die Fachperson schnell an ihre Grenzen. Selbst, wenn es eine (real bislang nicht existente) möglichst vollständige Datenbank über die vielen rechtsstreitbeendigenden Resultate gäbe, seien es nun vor dem Gericht oder außergerichtlich geschlossene Vergleiche oder endgültig eben doch richterliche Urteile, würde es einem Menschen kaum gelingen, eventuelle Muster in den Daten zu erkennen, ohne dabei die eigenen vorgefassten Ansichten hineinzulesen. Dieses Phänomen heißt Bestätigungsfehler und bezeichnet die sehr menschliche Tendenz, dass Informationen, die für eine zumindest in Betracht gezogene oder gar für wahrscheinlich gehaltene Hypothese sprechen, besser wahrgenommen, stärker gewichtet und besser erinnert werden als Informationen, die den geprüften Hypothesen widersprechen. Bei einer Datenbanksuche wirkt sich dieser Effekt typischerweise so aus, dass der Nutzer sich von vorneherein mehr auf bestätigende Urteile ausrichtet. Dieses Verhalten führt zu einer Art selbstgemachten Filterblase, die dem Suchenden selbst nicht bewusst ist, denn je mehr „bestätigendes“ Material derjenige zutage fördert, umso plausibler erscheint die eigentlich von Anfang an geglaubte Hypothese als korrekt. Widersprechende Informationen gehen dabei unter, wenn man nicht mit Nachdruck danach sucht. Schnell recherchiert man sich selbst auf diese Weise in eine Einbahnstraße, trotz redlicher Arbeitseinstellung. (...)