Trust Paradox - Erforschung paradoxer Verhaltensweisen in der Mensch-KI-Interaktion

Trust Paradox

Erforschung paradoxer Verhaltensweisen in der Mensch-KI-Interaktion

Marisa Tschopp
Marisa Tschopp
 Pierre Rafih (extern)
Pierre Rafih (extern)
am 10. November 2022
Lesezeit: 17 Minuten

Keypoints

Die Kluft zwischen Einstellung und Verhalten in der Mensch-Maschine Interaktion

  • Die Forschung hat die Bedeutung von Vertrauen in der Interaktion zwischen Mensch und KI gezeigt: Kein Vertrauen, keine Nutzung
  • Vertrauen ist ein wichtiger Faktor für die Annahme von und das Vertrauen in Technologie
  • Es ist wenig über paradoxes Verhalten bekannt, wenn es um Mensch-Maschine-Vertrauen geht
  • Ausgehend vom Datenschutzparadoxon untersucht dieser Artikel ein potenzielles Vertrauensparadoxon
  • Das Vertrauensparadoxon ist eine Einstellungs-Verhaltenslücke, bei der Menschen sagen, dass sie einer Technologie nicht vertrauen, sie aber dennoch nutzen: Kein Vertrauen, aber Nutzung

Kein Vertrauen, kein Nutzen! Zahlreiche Studien aus dem Bereich der Mensch-Maschine-Interaktion haben die Hypothese “No trust, no use” bestätigt. Kurz gesagt, haben diese Studien gezeigt, dass Vertrauen ein wichtiger Prädiktor für Vertrauen ist, d.h. dafür, wie Menschen Technologie nutzen. Unsere Forschung konzentriert sich auf konversationelle KI, auch digitale, sprachgesteuerte oder intelligente Assistenten genannt, weil wir glauben, dass konversationelle Benutzerschnittstellen (CUI) sich von traditionellen Technologien unterscheiden und neue Forschungsansätze bieten. Sie erfordern nicht, dass sich die Nutzer direkt auf das Gerät konzentrieren und mit ihm interagieren, z. B. durch Berührung, so dass sie eher intuitiv sind. Gleichzeitig ruft das Gerät oft eine Art von Präsenz hervor und ist Teil der privatesten Bereiche des sozialen Lebens der Nutzer. Genauer gesagt wollen wir die Rolle des Vertrauens in der Konversations-KI oder der Mensch-KI-Interaktion besser verstehen. Die Ergebnisse einer unserer Pilotstudien, die auf einem AI4EU-Workshop vorgestellt wurden, stützen die Hypothese “kein Vertrauen, keine Nutzung”: Wir fanden heraus, dass tatsächliche Nutzer von konversationeller KI ein signifikant höheres Mass an Vertrauen haben (Tschopp et al., 2021).

Dies ist jedoch nur ein Teil des Ganzen, um die Rolle des Vertrauens in der Mensch-KI-Interaktion besser zu erklären. Es könnte sich lohnen, mit dem witzigen Slogan no trust, no use genauer zu sein: Die negativ gerahmte Hypothese impliziert eine positive, kongruente Vertrauens-Nutzungs-Beziehung: Je mehr die Nutzer einer Technologie vertrauen, desto eher nutzen sie sie, ihr Verhalten folgt ihrer Einstellung. Dieses Grundprinzip geht jedoch nicht auf inkongruentes Verhalten ein. Kein Vertrauen, keine Nutzung reicht nicht aus, um andere Szenarien zu erklären, z. B. dass einige Menschen, die einer bestimmten Technologie nicht vertrauen, sie dennoch nutzen. Wir wissen nur wenig darüber, wie das tatsächliche Vertrauensverhalten von Menschen aussieht, die kein oder wenig Vertrauen haben. Aufbauend auf den Erkenntnissen der Datenschutzforscher über das Datenschutzparadoxon wollen wir die Beziehung “kein Vertrauen, aber Nutzung” besser verstehen, die als tatsächliches Vertrauensverhalten interpretiert werden kann, das nicht mit der jeweiligen Vertrauenseinstellung übereinstimmt.

Attitude Behavior Gap in der Privacy Forschung: Das Privacy Paradox

Ein Grossteil der Verbraucherpsychologie befasst sich mit Verbraucherentscheidungen: Die Forscher versuchen zu verstehen, wie Einstellungen, Werte, Überzeugungen oder Wissen gebildet werden und wie diese Variablen das Verbraucherverhalten beeinflussen. Die meisten Menschen würden es für normal halten, dass Menschen, die eine bestimmte Einstellung haben, nach dieser Einstellung handeln. Dies ist jedoch nicht immer der Fall. Das Phänomen, dass Menschen sich entgegen ihrer Einstellung verhalten, wird als Einstellungs-Verhaltens-Lücke bezeichnet und hat in der Datenschutzforschung besonderes Interesse gefunden. In zahlreichen Studien wurde festgestellt, dass die Nutzung der Technologie durch das so genannte Privatsphärenparadox gekennzeichnet ist (Norberg, 2007): Die Menschen sagen, dass sie sich um die Privatsphäre kümmern oder Bedenken haben, aber sie sind unvorsichtig, wenn es um ihr tatsächliches Verhalten geht. Die nachstehende Abbildung zeigt in vereinfachter Form, dass eine Einstellung gebildet wird, die die Absicht beeinflusst, die dann zu einer Handlung führt.

Attitude Behavior Gap: Privacy Beispiel der Autoren

Wie in der obigen Abbildung zu sehen, ist es wichtig zwischen Absicht und Verhalten zu unterscheiden. Obwohl die Absicht im Allgemeinen ein starker Prädiktor für das Verhalten ist, haben Studien über das Datenschutzparadoxon gezeigt, dass die Absicht nicht genau genug ist, um das tatsächliche Verhalten zu erklären. Leider wird die Absicht meist als Ergebnisvariable untersucht, da sie viel einfacher und kostengünstiger zu operationalisieren ist als tatsächliche Nutzungsvariablen (Sheeran, 2002. Kokalakis (2015) schlägt vor, zwischen Privatsphärenbedenken (z. B. Stalking, sekundäre Nutzung durch Dritte oder missbräuchlicher Zugriff durch Arbeitgeber) und Privatsphäreneinstellungen (z. B. “Ich lege Wert auf Privatsphäre”) zu unterscheiden. Ausserdem kann man zwischen der Intention und dem Verhalten zum Schutz der Privatsphäre unterscheiden: Annahme, z. B. Kauf, oder Verhalten zum Schutz der Privatsphäre, z. B. die Verweigerung von Informationen oder die Angabe falscher Informationen (Son & Kim, 2008).

Das Paradox der Privatsphäre ist kontextabhängig

Die meisten Studien konzentrieren sich auf soziale Netzwerke und den elektronischen Handel, wobei die Literatur über Smartphones zunimmt. In der Forschung im Bereich der Smartphone-Nutzung wird häufig versucht, Fragen im Zusammenhang mit dem Datenschutzparadoxon im Kontext der Uses and Gratification Theory (UGT) oder der Information Boundary Theory (IBT) zu erklären (Sutanto 2013). Andere Forschungsansätze befassen sich mit Emotionen. In einer Studie, die kurz nach dem Facebook-Skandal um Cambridge Analytica durchgeführt wurde, stellen Sarabia-Sanchez et al. (2019) fest, dass es keinen Zusammenhang zwischen der Intensität der berichteten Emotionen und der Handhabung der Privatsphäre-Einstellungen durch die befragten Facebook-Nutzer gibt. Ein grosser Teil der Forschung über das Paradox der Privatsphäre im digitalen Bereich befasst sich mit der Cybersicherheit. Jenkins et al. (2021) stellen fest, dass der Wunsch der Menschen, den erforderlichen Aufwand zu minimieren, ihr tatsächliches Sicherheitsverhalten negativ moderiert. In ihrer Studie zum Sicherheitsverhalten von Smartphone-Nutzern stellen Das und Kahn (2016) fest, dass die konsistentesten Prädiktoren für das Sicherheitsverhalten die wahrgenommene Wirksamkeit und die Kosten der Annahme von Sicherheitsmassnahmen sind. Ein anderer Ansatz zur Erklärung des Datenschutzparadoxons im digitalen Kontext bezieht sich auf den rationalen Fatalismus, demzufolge der Grad der fatalistischen Überzeugung über Technologien und Unternehmen die Wahrscheinlichkeit beeinflusst, dass Nutzer ihre Privatsphäre im Internet im Allgemeinen schützen (Xie et al. 2019).

Es gibt eine neue Strömung, die sich mit dem Datenschutzparadoxon im Zusammenhang mit KI im Gespräch befasst. Es hat sich gezeigt, dass die Art der Technologie und die Art der Informationen, die weitergegeben werden (Alter, Gewicht, Einkommen usw.), einen Unterschied machen. Intelligente Lautsprecher sind per se intrusiv, da sie die privateste soziale Sphäre ihrer Nutzer teilen. Darüber hinaus sind die GDPR-Datenschutzempfehlungen aufgrund der Konversationsschnittstelle (CUI) nur unzureichend umgesetzt und daher schwer zugänglich (Brüggemeier & Lalone, 2022). Ein weiterer Faktor, der konversationelle KI von anderen Kontexten unterscheidet, basiert auf dem CASA-Paradigma (Menschen neigen dazu, Computer als soziale Akteure zu behandeln) und Anthropomorphismus (die Tendenz von Menschen, Maschinen zu vermenschlichen). Intelligente Lautsprecher erzeugen wahrscheinlich eine soziale Präsenz, z. B. die Wahrnehmung einer partnerschaftlichen Beziehung, die nachweislich die unerwünschte Weitergabe persönlicher Informationen (unintended nudging) fördert. Diese besonderen Merkmale rechtfertigen eine Untersuchung der Kluft zwischen Einstellung und Verhalten speziell im Zusammenhang mit konversationeller KI, da Schlussfolgerungen aus Studien zu anderen Technologien nicht verallgemeinert werden können.

Kritik am Privacy Paradox: Widersprüchliche Ergebnisse und methodologische Grenzen

Die Erforschung des Paradoxons der Privatsphäre hat zu widersprüchlichen Ergebnissen geführt. Die Forscher haben versucht, das Paradoxon der Privatsphäre in verschiedenen Zusammenhängen zu untersuchen. Ein Teil der Forschung konzentrierte sich darauf, Beweise dafür zu finden, dass das Verhalten der Menschen mit ihren Einstellungen und/oder Absichten zum Schutz der Privatsphäre übereinstimmt, so dass kein paradoxes Verhalten gefunden wurde (z. B. Young und Quan-Haase, 2013 in sozialen Netzwerken; Wakefield, 2013 im elektronischen Handel). Die oben erwähnte Tatsache, dass das Verhalten in Bezug auf den Schutz der Privatsphäre in hohem Masse kontextabhängig ist, dass die Bedenken in Bezug auf den Schutz der Privatsphäre differenziert werden sollten und dass es davon abhängt, um welche Art von Informationen es geht, erschwert die Vergleichbarkeit und erklärt unterschiedliche Interpretationen der Studien. Insgesamt weisen die meisten Studien Mängel in der Methodik auf. Dies ist ein grosses Problem, da es die Interpretation und Verallgemeinerbarkeit in Frage stellt. Diesem Problem sollte höchste Priorität eingeräumt werden, um das Feld voranzubringen. Erhebungen und Experimente (meist auf der Grundlage von Zufallsstichproben) werden am häufigsten verwendet, was Fragen der Gültigkeit und Verallgemeinerbarkeit aufwirft. Das grösste Problem könnte darin bestehen, dass man sich auf Selbstauskünfte über Bedenken, Einstellungen und Absichten verlässt.

Wir glauben, dass die digitale Privatsphäre ein erstrebenswerter gesellschaftlicher Wert ist, was sich in der Einführung der Datenschutz-Grundverordnung widerspiegelt und von Ethikern oder sogenannten Datenschutzaktivisten gefördert wird. Es ist plausibel, dass individuelle Einstellungen und Bedenken zum Datenschutz aufgrund des Phänomens der sozialen Erwünschtheit weitgehend verzerrt sind. Diese Verzerrung besteht darin, dass die Befragten dazu neigen, Fragebögen generell positiv zu beantworten. Die Frage, die sich viele stellen, lautet daher: Wie viel Wert legen die Menschen wirklich auf die Privatsphäre? Könnte man die Einstellung zum Datenschutz wirklich messen, wäre dies der kürzeste Weg, um die Existenz des Datenschutzparadoxons zu widerlegen. Da dies, wie bei allen latenten Variablen, unmöglich ist, müssen die Forscher noch kreativer sein.

Kehr et al. (2015) vermuten, dass die “soziale Repräsentation von Privatsphäre von Laiennutzern noch nicht gebildet wird”. Im Einklang mit dieser Aussage fanden Barth et al. (2019) das paradoxe Verhalten in ihrem Experiment (unter Kontrolle von technischem Wissen, finanziellen Ressourcen und Bewusstsein für den Schutz der Privatsphäre), konnten jedoch keine Darstellung des Schutzes der Privatsphäre in den Bewertungen der verwendeten Technologie durch die Befragten finden. Daraus schliessen sie, dass der Datenschutz nicht als wichtig eingestuft wird. Ausserdem sind Funktionalität, Design und wahrgenommener Nutzen wichtiger als der Datenschutz.

Können wir das Privacy Paradox in ein Trust Paradox übertragen?

Die EU hat einen Rahmen für vertrauenswürdige KI entwickelt, um eine verantwortliche Nutzung der künstlichen Intelligenz zu fördern. Sie weisen auf eine enge Beziehung zwischen Vertrauenswürdigkeit (als Eigenschaft von KI-Systemen) und der Einstellung zum Vertrauen hin, wobei der Datenschutz eine der Komponenten der Vertrauenswürdigkeit ist. Es ist plausibel, dass die Lehren aus dem Datenschutzparadoxon auf ein potenzielles Vertrauensparadoxon übertragen (oder modifiziert) werden können. Ein theoretischer Rahmen für ein Vertrauensparadoxon existiert nicht und könnte z. B. auf der Grundlage der Überprüfung des mehrdimensionalen Ansatzes für Datenschutz und intelligente Lautsprecher von Lutz und Newlands (2020) entwickelt werden. Unter Berücksichtigung der oben genannten Punkte ist ein Vertrauensparadoxon wahrscheinlich kontextabhängig (weshalb wir uns nur auf konversationelle KI konzentrieren), wobei die zu theoretisierenden Variablen aus der einschlägigen Vertrauensliteratur im Vergleich zur Datenschutzforschung stammen. Die Rolle von Wissen und finanziellen Ressourcen, wie sie im Artikel von Barth et al. im IOT-Kontext (2019) zu finden sind, könnte zum Beispiel sehr relevant sein. Was besonders wichtig sein könnte, ist die Integration der verschiedenen Akteure, die im Rahmen des Vertrauens eine Rolle spielen: Der eigentliche intelligente Lautsprecher (Alexa) gegenüber dem Unternehmen, das dahinter steht (Amazon), und anderen Dritten, die eine Rolle spielen können (z. B. intelligente Glühbirnen von Philips oder der NHS in Grossbritannien, der über Alexa Gesundheitsratschläge erteilt). Betrachtet man die Vielfalt der Erklärungen für paradoxes Verhalten im Datenschutzkontext, ist es plausibel, dass die Interpretationen für ein Vertrauensparadoxon ähnlich sind. Ausgehend von der Literatur zum Datenschutzparadoxon können die Interpretationen ähnlich sein, mit Ausnahme der sozialtheoretischen Interpretation, die wahrscheinlich nur in sozialen Netzwerken vorkommt (z. B. Offenlegung persönlicher Informationen zur Aufrechterhaltung ihres Online-Lebens).

  1. Die Menschen könnten eine Vertrauenskalkulation durchführen, indem sie eine Kosten-Nutzen-Analyse bei der Nutzung des Systems vornehmen.
  2. Die Entscheidungsprozesse der Menschen werden durch kognitive Verzerrungen und Heuristiken beeinflusst.
  3. Den Menschen fehlt es an bewusster Entscheidungsfindung aufgrund von begrenzter Rationalität und Informationsasymmetrie oder Informationsmangel.
  4. Die Menschen geben auf und haben nicht das Gefühl, dass sie die Art und Weise, wie Daten gehandhabt werden, ändern können (siehe Turow et al., 2015).

Die Untersuchung eines potenziellen Vertrauensparadoxons stösst auf dieselben methodischen Herausforderungen wie oben erwähnt, wie z. B. die Selbstauskunft und die mangelnde Detailgenauigkeit, z. B. bei der Unterscheidung zwischen Vertrauensbedenken und Vertrauenshaltung. Vertrauen könnte sogar noch schwieriger sein, da es verschiedene Massstäbe gibt, und im Gegensatz zum Datenschutz gibt es kein offizielles Gesetz oder etwas Vergleichbares, das als Schwellenwert dafür dienen könnte, was “angemessenes” Vertrauen ist und was nicht. Die EU-Leitlinien für vertrauenswürdige KI können als theoretischer Hintergrund dienen. Es besteht die grosse Gefahr, dass sich die gleichen Probleme wiederholen, wenn die Methoden nicht kreativ gewählt werden und sich lediglich auf die Nutzungsabsicht konzentrieren. Andererseits kann die Untersuchung der Nutzungsabsicht gut als Pilotstudie dienen und könnte aufgrund der Neuartigkeit des Problems gut genug sein.

Es bleiben offene Fragen: Was ist das äquivalente Mass für das Vertrauen in die Leistung, den Prozess und den Zweck der konversationellen KI? Welche Art von Vertrauensbewusstsein ist relevant (im Vergleich zu dem relativ klaren Konzept des Datenschutzbewusstseins)? Wie lässt sich technisches Wissen im Kontext der dialogischen KI operationalisieren? Wie lassen sich die verschiedenen Akteure von Vertrauensbeziehungen integrieren? Und während man die Angemessenheit individueller Datenschutzentscheidungen an bestehende Regeln und Vorschriften anpassen kann, was sind angemessene individuelle Vertrauensentscheidungen?

Fazit

Wir glauben, dass die respektable Arbeit der Datenschutzforscher eine wertvolle Gelegenheit bietet, Vertrauen in der Mensch-KI-Interaktion besser zu verstehen, genauer gesagt, Vertrauen in konversationelle KI, die unser Thema ist. Die Forschung zum Datenschutz-Paradoxon hat widersprüchliche Ergebnisse hervorgebracht und weist methodische Mängel auf, so dass es ein weit offenes Thema mit einem Mangel an Wissen speziell im Bereich der konversationellen KI bleibt (Kokalakis, 2015; Barth et al., 2019; Sun et al., 2020; Lutz & Newlands, 2021). Diese Herausforderungen ebnen jedoch auch den Weg für innovative Forschungsagenden. Es ist plausibel, dass in der Mensch-KI-Interaktion ein Vertrauensparadoxon zu finden ist, ähnlich dem Datenschutzparadoxon, einschliesslich der beobachteten schwierigen Herausforderungen. Vertrauen ist ein komplexes Konstrukt mit kognitiven und emotionalen Elementen, und obwohl wir erwarten, viele Ähnlichkeiten mit dem Privatsphärenparadoxon zu finden, theoretisieren wir auch, dass es Unterschiede zum Vertrauensparadoxon gibt, in der Hoffnung, nützliche Empfehlungen für Forschung und Praxis zu entwickeln.

Schliesslich müssen die Ergebnisse bezüglich der Einstellungs-Verhaltens-Kluft von den daraus resultierenden Erwartungen oder der Wahrnehmung, die Individuen in Bezug darauf haben, wie die Anbieter dieser Dienstleistungen handeln sollten, getrennt werden. Martin (2016) stellt fest, dass Personen auch nach der Offenlegung von Informationen starke Erwartungen an die Privatsphäre haben, was bedeutet, dass ihre Bereitschaft, E-Commerce-, Social-Media-, Smartphone-, Browser-, Smart-Assistenten- oder anderen Dienstanbietern Zugang zu privaten Daten zu gewähren, nichts an ihrer Einstellung zur Privatsphäre ändert.

Autorenschaft und Danksagung

Dieser Artikel wurde von Marisa Tschopp und Pierre Rafih verfasst. Pierre Rafih ist Professor für Investment und Finanzen, Unternehmensführung und Controlling an der Hochschule für angewandtes Management in Ismaning bei München. Seine Forschungsschwerpunkte liegen im Bereich Behavioral Finance mit den Schwerpunkten Anlegerverhalten, Finanzinnovation und Financial Literacy. Wir danken auch Prof. Dr. Dagmar Monett (HWR Berlin) für wertvolle Diskussionen zu diesem Thema und Feedback.

Referenzen

Links

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!

×
Verwundbarkeit von Mensch und Maschine

Verwundbarkeit von Mensch und Maschine

Marisa Tschopp

Agency von Mensch und Maschine

Agency von Mensch und Maschine

Marisa Tschopp

Künstliche Intelligenz

Künstliche Intelligenz

Marisa Tschopp

Diversify AI

Diversify AI

Marisa Tschopp

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv