Vertrauen und KI - Drei falsche Fragen

Vertrauen und KI

Drei falsche Fragen

Marisa Tschopp
von Marisa Tschopp
am 12. November 2020
Lesezeit: 4 Minuten

Keypoints

Drei falsche Fragen zu KI

  • Vertrauen wird oft als Erfolgsfaktor für neue Technologien propagiert
  • Es gibt grundsätzlich falsche Fragen, die ein "Trust Washing" umzusetzen versuchen
  • Dazu gehören "Vertraut der Benutzer KI", "Wie können wir das Vertrauen erhöhen" und "Sollte die Gesellschaft KI vertrauen"
  • Diese Fragen müssen anders gestellt werden, um das wahre Ziel erreichen zu können

No Trust, No Use: Oft wird Vertrauen als kritischer Erfolgsfaktor propagiert, wenn es um die Akzeptanz und Nutzung von neuen Technologien geht. Doch ganz so einfach ist es nicht. Geht Nutzung und Akzeptanz von neuen Technologien tatsächlich mit Vertrauen einher? Um die Themen Vertrauen und KI (künstliche Intelligenz) besser in die Praxis zu bringen, braucht es erst einmal eins: bessere Fragen.

Der Einsatz von smarten, ubiquitären Technologien verschärft das Spannungsfeld zwischen Mensch, Maschine und Gesellschaft. Leidenschaftlich werden Debatten geführt, die in ihren Extremen zwischen den Weltuntergang verkündenden Nostradamus-Anhängern und den Heilsversprechenden Tech-Evangelisten festgefahren scheinen.

Die Unsicherheit und Skepsis wachsen, was unausweichlich zur Folge hat, dass die Frage des Vertrauens ins Rampenlicht gestellt wird: Wie schaffen wir es, dass die Konsumentinnen und Konsumenten uns vertrauen? Ein kluges Ablenkungsmanöver, um von den Schwächen der eigenen Firmenkultur oder der Qualität der Produkte abzulenken. Vor allem in der Praxis wird das Wort nahezu inflationär verwendet – in Design Guidelines, in der Werbung, in Image-Kampagnen oder Ethik-Codices von Tech-Firmen, Banken oder sonstigen KI-Startups. Doch dient es meist nur als ein gefässloses Füllwort, das irgendwelche positive Konnotationen hervorrufen soll. Man kann es auch “Trust Washing” nennen.

Es ist höchste Zeit, mit Mythen aufzuräumen, Klartext zu sprechen und damit aufzuhören, die falschen Fragen zu stellen.

Vertrauen Sie [der User] KI?

Die Frage, ob oder inwieweit jemand KI vertraut, ist eigentlich völlig sinnlos. Die Vertrauensfrage hat immer drei Dimensionen: Wer vertraut, wem Vertrauen geschenkt wird und auf welches Ziel sich dieses Vertrauen bezieht. Zum Beispiel: Ich vertraue Amazon, dass mein bestellter Artikel rechtzeitig geliefert wird. Aber ich vertraue Amazon nicht, dass die Firma meine persönlichen Daten “ethisch vertretbar” verwendet; nicht für Marketingzwecke missbraucht und mich mit fragwürdigen, «psychografischen» Mitteln analysiert.

⇒ Bessere Frage: Vertrauen Sie diesem [KI-basierten Produkt], Ziel X zu erreichen?

Wie können wir [die Tech-Firma] das Vertrauen in KI erhöhen?

Die Stimmen aus der Marketing- und Sales-Abteilung werden laut: Wie können wir den Konsumenten steuern, beeinflussen oder manipulieren, damit das Vertrauen in KI-Produkt X und damit die Wahrscheinlichkeit der Adoption erhöht wird? Hier muss klar differenziert werden und eine Fokusänderung stattfinden: Vertrauen und Vertrauenswürdigkeit sind grundverschiedene Konzepte. Vertrauen ist eine Einstellung beim Konsumenten, während Vertrauenswürdigkeit eine Eigenschaft von Produkten, Prozessen oder einer Firma ist. Anleitungen, an diesen zu arbeiten, schiessen en masse aus dem Boden. Es ist wohl wahr: Vertrauen kann man nicht kaufen. Man muss es sich verdienen, indem man zeigt, dass man vertrauenswürdig ist.

⇒ Bessere Frage: Wie können wir vertrauenswürdig sein?

Sollten wir [die Gesellschaft] KI vertrauen?

“Niemals” würde J. Bryson sagen. KI-basierte Programme sind nichts, dem man vertrauen sollte. Software muss vertrauenswürdig sein, also so gebaut werden, dass sie – in diesem Fall die Entwickler – zur Verantwortung gezogen werden können. Dafür müssen wir wissen und prüfen können, was ein System kann und was nicht. Vertrauen ist irrelevant wie bei der Buchhaltung. Aus ethischer Sicht ist die Frage mehr als falsch.

⇒ Bessere Frage: Wie können wir KI besser verstehen?

Zahlreiche Forschungsgruppen aus der Psychologie versuchen mit gutem Grund, das Mysterium Vertrauen und Technologie besser aufzuschlüsseln: Wie beeinflusst Vertrauen die Art und Weise, wie wir uns auf eine Technologie verlassen und diese nutzen? Welche Rolle spielen andere Faktoren wie z. B. das Verständnis von KI oder die wahrgenommene Handlungsvollmacht (Stichwort: Agency!) für das Nutzerverhalten? Es wurden tödliche Unfälle dokumentiert aufgrund von “zu wenig oder zu viel Vertrauen” in eine Technologie: So z. B. das bekannte “Death by GPS”-Phänomen oder der Ingenieur, der mit dem Tesla verunglückte, weil er dem System vertraut hat, dass es ihn mit hundertprozentiger Verlässlichkeit autonom ans Ziel bringt. So hielt er es für angemessen, während der Fahrt Videospiele zu spielen.

Fazit

Das Schlussplädoyer lautet, die durchwachsene Situation zu nuancieren und einen transdisziplinären Weg einzuschlagen, der Wissenschaft, Praxis, Politik und weitere Stakeholder integriert. Es ist höchste Zeit, dass wir gemeinsam die richtigen Fragen stellen und diskutieren können.

Über die Autorin

Marisa Tschopp

Marisa Tschopp hat ihren Master in Wirtschaftspsychologie an der Ludwig-Maximilians-Universität in München absolviert. Sie ist aktiv in der Forschung zu Künstlicher Intelligenz aus Humanperspektive, wobei sie sich auf psychologische und ethische Aspekte fokussiert. Sie hat unter anderem schon Vorträge an TEDx Events gehalten und vertritt zudem die Schweiz als Ambassador in der Women in AI (WAI) Initiative. (ORCID 0000-0001-5221-5327)

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!

×
Sprechen statt Tippen

Sprechen statt Tippen

Marisa Tschopp

Voice User Interfaces

Voice User Interfaces

Marisa Tschopp

Voice User Interface Design

Voice User Interface Design

Marisa Tschopp

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv