KI & Vertrauen - Hört auf zu fragen, wie das Vertrauen in KI erhöht werden kann

KI & Vertrauen

Hört auf zu fragen, wie das Vertrauen in KI erhöht werden kann

Marisa Tschopp
von Marisa Tschopp
am 20. Februar 2020
Lesezeit: 21 Minuten

Keypoints

So können wir Technologie vertrauen

  • Dieser Bericht bietet einen theoretischen Hintergrund zum Thema Vertrauen, Ergebnisse eines Workshops zum Thema Vertrauen und persönliche Überlegungen der Autorin
  • In der Praxis herrscht Verwirrung über Terminologien (Vertrauen, Verlässlichkeit, Vertrauenswürdigkeit) vor und behindert den Fortschritt
  • Vertrauenswürdigkeit als Eigenschaft unterscheidet sich von Vertrauen als Einstellung, ist aber damit verbunden
  • Zwischenmenschliches Vertrauen kann zum Teil auf Vertrauen in Automatisierung und KI übertragen werden
  • Vertrauen ist von entscheidender Bedeutung, da es den Umgang mit Automatisierung und KI beeinflusst (Verlässlichkeit)
  • Die Anwender müssen skeptisch sein und das richtige Mass an Vertrauen finden, um die Technologie richtig einzusetzen, sich also nicht zu viel, aber auch nicht zu wenig darauf zu verlassen
  • Technologieanbieter müssen das Vertrauen der Nutzer durch den Nachweis ihrer Vertrauenswürdigkeit gewinnen

Seit über zweieinhalb Jahren beschäftigt sich die Titanium Forschungsabteilung mit der Rolle des Vertrauens im Kontext der künstlichen Intelligenz. Die erste Idee war, einen Quotienten für künstliche Intelligenz zu entwickeln. Eine Methode zur Messung des Verhaltens, um die Fähigkeiten von Konversations-KI zu testen. Mit anderen Worten, es sollte zeigen, wie schlau Siri ist. Die These war, dass Menschen, wenn es eine Art Leistungsnachweis als Vertrauenssiegel gäbe, Siri eher vertrauen und sie daher eher verwenden würden (siehe Tschopp & Ruef, 2019a). Die zugrunde liegende Hypothese ist die no trust, no use Hypothese. Wenn Benutzer der Technologie nicht vertrauen, werden sie sie nicht verwenden (Hancock et al., 2011). Dabei stellt die Leistung (Performance) eine wichtige Dimension des Vertrauens in die Automatisierung dar (Lee & See, 2004). Leistung, die sich auf ein zuverlässiges, robustes Produkt bezieht, ist jedoch nicht die einzige Dimension, die das Vertrauen beeinflusst. Um die Natur des Vertrauens und der Vertrauenswürdigkeit und insbesondere die Hypothese kein Vertrauen, keine Verwendung besser zu verstehen, haben wir den Titanium Trust Report 2019 entwickelt (Tschopp & Ruef, 2019b,c). Der Titanium Trust Report 2019 ist eine Mixed-Method-Analyse mit 111 Teilnehmern mit unterschiedlichem Hintergrund und unterschiedlichem Fachwissen, welche das Vertrauen in und die Verwendung von künstlicher Intelligenz untersucht.

An der NZZ Future Health Konferenz in Basel hatten wir die Gelegenheit, jahrelange theoretische Forschung in die Praxis umzusetzen. Mit über 30 Teilnehmern haben wir einen Workshop abgehalten, in dem wir in einer Teilnehmergruppe an einem gegenseitigen Verständnis des Vertrauens in künstliche Intelligenz gearbeitet haben, was es bedeutet, was es tut, wie man damit umgeht. Die Organisatoren nannten die Sitzung: Wie können wir das Vertrauen der Menschen in die KI stärken? In diesem Bericht werden nach einem theoretischen Hintergrund, die Ergebnisse des Workshops vorgestellt. Zudem wird diskutiert, warum wir aufhören sollten zu fragen, wie das Vertrauen gestärkt werden kann.

Vertrauen, Verlässlichkeit und Verantwortlichkeit – Können wir auf einen Algorithmus zählen?

Niemand sollte der künstlichen Intelligenz vertrauen. So lautet die Überschrift eines Artikels von Dr. J. Bryson (2018), Professorin für Technik und Ethik an der Hertie School in Deutschland. In dem Artikel stellt sie die These auf, dass wir der künstlichen Intelligenz nicht vertrauen müssen, weil es sowohl möglich als auch wünschenswert ist, eine KI so zu entwickeln, dass sie zur Rechenschaft gezogen werden kann (Bryson, 2018). Heisst das, dass Vertrauen unnötig wird wenn wir uns auf eine KI verlassen und im Falle eines Fehler jemanden zur Verantwortung ziehen können? Verantwortungsvolles Design (die Fähigkeit Rechenschaft ablegen zu können) wird oft als Transparenz in den Prozessen verstanden. Es sollte klar sein, wie ein Algorithmus zu einem Ergebnis gekommen ist (z.B. warum hat Person X ein Darlehen erhalten und Person Y nicht). Es herrscht allerdings ein Mythos in Bezug auf die Beziehung von Transparenz und Vertrauen. Der Mythos ist: Mehr Transparenz, mehr Vertrauen. Aber, wenn wir die Transparenz erhöhen, erhöhen wir nicht das Vertrauen. Tatsächlich ist das Gegenteil der Fall. Wenn wir auf Transparenz setzen, geben wir das Vertrauen auf (Botsman, 2020) und ersetzen es durch Kontrolle.

Es scheint viel Verwirrung über die Natur des Vertrauens im Zusammenhang mit der Technologie zu herrschen, die dringend geklärt werden muss. Vertrauen wird mehr und mehr zum Buzzword (#trustwashing), ein Nice-to-have oder etwas, für das man werben kann. Für Vertrauen kann man jedoch nicht einfach werben. Sinkt nicht automatisch Ihr Vertrauen, wenn jemand sagt: Vertrauen Sie mir!? Vertrauen ist eine Bemühung und es muss durch vertrauenswürdiges Verhalten verdient werden (Botsman, 2020). Vertrauen als Einstellung ist ebenso wichtig wie Vertrauenswürdigkeit als Eigenschaft, und beide beeinflussen die Art und Weise, wie Anwender Technologie nutzen.

Verständnis für Vertrauen und Vertrauenswürdigkeit schaffen

In zwischenmenschlichen Beziehungen ist Vertrauen ein Bewältigungsmechanismus, der Menschen hilft, mit Unsicherheit und Risiko umzugehen. Er setzt voraus, dass der, der vertraut, anfällig für einen möglichen Verrat des zu Vertrauenden ist, dem er in einem bestimmten Kontext und zu einem bestimmten Zeitpunkt eine bestimmte Aufgabe anvertraut (z.B. ein loyaler Partner oder ein kompetenter Mechaniker zu sein). Laut A. Baier ist das Verständnis des Verrats entscheidend, wenn wir Vertrauen von Verlässlichkeit unterscheiden wollen. In ihrem Beispiel erklärt sie, dass man sich auf leblose Gegenstände wie einen Wecker verlassen kann. Wenn er Sie aber nicht angemessen weckt, sind Sie enttäuscht, aber nicht verraten. Sich auf etwas verlassen ohne die Möglichkeit des Verrats, ist kein Vertrauen (zur Kritik an dieser Ansicht siehe McLeod, 2015). Es gibt unterschiedliche Ansichten darüber, wie Vertrauen versus Verlässlichkeit eine Rolle spielt. In diesem Bericht kommen wir zu dem Schluss, dass sich ein Anwender auf künstliche Intelligenz verlässt. Diese Verlässlichkeit auf die künstliche Intelligenz wird durch das Vertrauen in die Entwickler des Produkts beeinflusst, welches wiederum vertrauenswürdige Merkmale aufweisen sollte.

Vertrauenswürdigkeit unterscheidet sich vom Vertrauen als Einstellung. Im Idealfall vertraut eine Person jedoch auf eine vertrauenswürdige Person. Vertrauenswürdigkeit bezieht sich auf eine Reihe von Eigenschaften der vertrauenswürdigen Person. Vertrauenswürdigkeit kann sich in Form von Merkmalen (Features) sichtbar machen. Vertrauen basiert sehr stark auf Beobachtung von Merkmalen, die auf rationaler, affektiver oder anologer Ebene interpretiert werden (Lee & See, 2004). Blitzbewertungen der Vertrauenswürdigkeit können auch eher unbewusst getroffen werden, wenn wir uns in einem frühen Stadium der Vertrauensbildung befinden, in dem keine vorherigen Informationen über den zu Vertrauenden verfügbar sind. Menschen können die Vertrauenswürdigkeit anderer Menschen recht gut anhand subtiler Anhaltspunkte beurteilen, was mithilfe von fMRI in experimentellen Umgebungen untersucht wurde. Diese eher unbewusste Einschätzung ist mit Vorsicht zu bewerten (Generalisierungsproblematik), lässt sich jedoch nicht gut auf das Vertrauen in Technologie übertragen (Hoff & Bashir, 2015). Solche experimentellen Settings mit der Benutzung von fMRI für die Messung von Vertrauen könnte möglicherweise gut im Kontext Mensch-Roboter-Interaktion funktionieren.

Zwischenmenschliches Vertrauen auf Vertrauen in Technologie übertragen

Verletzlichkeit ist das Herz aller Vertrauenstheorien

Verletzlichkeit ist das Herzstück aller Vertrauenstheorien. Psychologische Verwundbarkeit im Hinblick auf zwischenmenschliches Vertrauen bezieht sich auf den Willen, für andere verwundbar zu sein. Das Risiko, das Menschen bereit sind einzugehen, ist unterschiedlich und wird häufig unter dem Aspekt der Disposition oder der Vertrauensbereitschaft untersucht. Es kann am besten als individuelles (überdauerndes) Persönlichkeitsmerkmal beschrieben werden, das häufig mit Optimismus oder Pessimismus korreliert. Die Forscher untersuchen geschlechtsspezifische oder kulturelle Unterschiede, um Abweichungen zu beschreiben, warum manche leichter vertrauen als andere. Zum Beispiel wurde unter Verwendung von Hofstedes Power-Distance-Dimension eine gewisse Varianz in der Zurückhaltung innerhalb des zwischenmenschlichen Vertrauens von Teilnehmern mit japanischem Hintergrund erklärt (Hoff & Bashir, 2019; Lee & See, 2004).

Bei der Übertragung des zwischenmenschlichen Vertrauens in das Vertrauen in die Automatisierung steht ebenfalls die Verwundbarkeit im Mittelpunkt. Es spielt jedoch nicht nur die psychologische Verwundbarkeit des Vertrauensgebers (welches Risiko ist der Vertrauensgeber eingegangen?), sondern auch technologische Verwundbarkeiten eine Schlüsselrolle, da sie die Vertrauenswürdigkeit eines Produkts beeinflussen. Technologische Schwachstellen lassen sich am besten als Schwachstellen in Leistung oder Prozessen beschreiben: Funktioniert sie zuverlässig? Tut sie, was sie tun soll, die ganze Zeit, wenn ich will, dass sie es tut?

Es ist erwünscht, genauso eine perfekte Maschine zu entwerfen, die immer genau das tut, was sie tun soll, die ganze Zeit wenn ich es will, das sie es tut. Aber die perfekte Maschine ist eine Illusion. Wir sprechen von Software und Hardware, die immer fehlerhaft und niemals perfekt sind. Untersuchungen legen nahe, dass viele Menschen Maschinen gegenüber überpositiv eingestellt sind (Positivity Bias). Das bedeutet, dass Menschen die Fähigkeiten der Maschine überschätzen und eher dazu neigen, Maschinen für perfekt zu halten und sich zu sehr darauf zu verlassen. Dies ist ein Hauptunterschied zum zwischenmenschlichen Vertrauen, da im zwischenmenschlichen Vertrauen gezeigt wurde, dass Menschen anfangs eher skeptisch sind (Dzindolet et al., 2003). Folglich verläuft die Dynamik des Vertrauens in die Automatisierung und des Vertrauens in den Menschen in umgekehrter Reihenfolge. Psychologische Vorurteile sind schwer zu überwinden, aber Lernen durch Erfahrung (einen Fehler selbst erlebt), Bewusstsein und Training (zum Beispiel das Reflektieren in heterogenen Teams) stehen als mögliche Gegenmassnahmen zur Verfügung.

Kurz gesagt, ist Vertrauen in die Automatisierung nicht dasselbe wie das blosse Verlassen auf die Automatisierung, jedoch ist das zwischenmenschliche Vertrauen das dominierende Paradigma eines umfangreichen Forschungskorpus, da es wesentliche Merkmale mit dem Vertrauen in die Automatisierung teilt. Vertrauen ist eine wichtige Variable, wenn es darum geht zu untersuchen, wie Menschen mit Technologie interagieren, sie nutzen und sich auf sie verlassen. Die bedeutenden Arbeiten von Parasuraman et al. (2000) und Parasuraman & Riley (1997) haben genau diese Rolle von Vertrauen untersucht, bei denen es auf den angemessenen Einsatz von Automatisierung hinausläuft. Sie unterschieden zwischen unterschiedlichen Formen des Missbrauchs, also sich zu sehr, zu wenig oder gar nicht auf die Technologie zu verlassen. Ein oft zitiertes Beispiel ist, wie der Kapitän des Kreuzfahrtschiffes Costa Concordia dem Navigationssystem des Schiffes gar nicht vertraute und sich entschied, es manuell zu steuern, was zu einer grossen Katastrophe geführt hat, bei der viele Passagiere ums Leben kamen. Andererseits haben viele Beispiele auch gezeigt, wie übermässiges Vertrauen in ein System zu fatalen Fehlern geführt hat (Hoff & Bashir, 2015).

Natürlich gibt es nach wie vor Inkonsistenzen bei den genauen Definitionen von Vertrauen und Vertrauenswürdigkeit, bei der Unterscheidung von Verlässlichkeit und bei der Frage, inwiefern sich zwischenmenschliches Vertrauen in Vertrauen in die Automatisierung übertragen lässt. Ein weiteres wichtiges Thema ist, wie Vertrauen gemessen werden kann, durch Fragebogen, Verhaltensbeobachtung oder durch physiologische Messungen (z.B. aus der neuropsychologischen Forschung). Dies wird Thema des nächsten Berichts sein. Für diesen Bericht soll das zugrunde liegende Begriffsverständnis im Fokus stehen: _Menschliches Vertrauen in Automatisierung kann als eine spezifische Art von zwischenmenschlichem Vertrauen angesehen werden kann, bei dem sich die Technologie als Element zwischen der Vertrauenden und dem zu Vertrauenden in den Weg stellt (Hoff & Bashir, 2015, S.10)

Zwischenmenschliches Vertrauen und Vertrauen in Technologie hat immer drei Elemente

Nicht zuletzt ist es wichtig, sich vor Augen zu halten, dass das Vertrauen in die Technik immer drei Komponenten hat, nicht wie so oft erwähnt nur zwei. Der Vertrauende vertraut darauf, dass der zu Vertrauende (Mensch oder Technologie) die Aufgabe X, aber nicht Aufgabe Y erledigt. Ich vertraue zum Beispiel darauf, dass Amazon mein Paket pünktlich liefert, aber ich vertraue nicht darauf, dass Amazon meine Privatsphäre respektiert. Schnell wird klar, dass Generalisierung und unpräzise Begriffsverwendung kontraproduktiv ist. Simplifizierung ist der Feind.

Persönliche Reflexion: Warum uns Vertrauen wichtig sein sollte

Heidi Dohse wird professionelle Herzpatientin, Erlaubnis für Verwendung des Bildes persönlich erhalten

Automatisierung, definiert als eine Technologie, die aktiv nach Daten sucht, Informationen transformiert und Entscheidungen trifft (oft auf der Grundlage inhärenter KI, siehe Hengstler et al., 2015), hat das Potenzial, die Effizienz und Sicherheit in vielen Anwendungsbereichen zu verbessern. Allerdings ist ein angemessenes Maß an Vertrauen der Schlüssel, wenn man sich auf die Automatisierung oder andere Arten von Technologien, einschließlich auf künstliche Intelligenz basierende Systeme, verlässt. Im Idealfall sollten wir ein Über- oder auch zuwenig Vertrauen vermeiden, denn wir könnten Gefahr laufen, Chancen zu verpassen. So wie etwa das Leben eines Menschen nicht nur zu retten, sondern es auch lebenswerter zu machen. Vertrauen beeinflusst wie Menschen mit Technologie umgehen. Der Fall von Heidi Dohse, einer professionellen Herzpatientin, zeigt die Feinheiten des Vertrauens in die Technologie. Ich hatte ein interessantes Gespräch mit Heidi und Dies ist ihre Geschichte. Seit über 35 Jahren ist Heidi Dohse zu 100% von ihrem Herzschrittmacher abhängig und hätte ohne diese Technologie nicht überlebt.

Obwohl Heidi Dohse an irgendeinem Punkt sagte, dass sie ihrem Schrittmacher vertrauen müsse, war der Kontext einer, indem es eindeutig keine wirkliche Wahl gab (angesichts der Tatsache, dass der Tod keine wünschenswerte Wahl ist). Sie musste sich auf die Technologie verlassen, um zu überleben. Sie sagte, sie müsse darauf vertrauen, dass sie gut funktioniert. In diesem Fall wirkte sich das Vertrauen nicht auf die Adoption aus, sondern auf die Nutzung nach der Einführung ihres Herzschrittmachers. Am Anfang kontrollierte sie ihren Puls sehr oft manuell, viele Male pro Tag, pro Stunde. Die Zeit verging, und Heidi gewöhnte sich an den Schrittmacher und kontrollierte weniger oft. Nach ihren Worten hat sie gelernt, darauf zu vertrauen, dass alles gut funktioniert (vgl. das Konzept des erlernten Vertrauens von Hoff & Bashir, 2015). Lassen sich diese Vertrauens-Fragen auf KI oder Automatisierung übertragen?

Zusammenfassung des Workshop an NZZ Future Health Basel

Marisa Tschopp erklärt die drei Dimensionen von Vertrauen in KI: Performance, Process und Purpose

Heidi Dohse, Loubna Bouarfa, CEO von OKRA, und ich selbst leiteten gemeinsam einen Workshop an der NZZ Future Health Konferenz 2020 in Basel. Ein Workshop, in dem wir mit Teilnehmern aus dem Gesundheitssektor an verschiedenen Fragen rund um das Thema Vertrauen arbeiteten. Die Frage des Workshops wurde von den Organisatoren formuliert: Wie können wir das Vertrauen der Menschen in die KI stärken? Rund 30 Personen nahmen an der Sitzung teil, in der sie über ihre persönlichen, kritischen Herausforderungen rund um das Thema Vertrauen reflektieren mussten. Es wurde bald sehr deutlich, dass die verzerrte Terminologie ein Problem ist. Was bedeutet Vertrauen? Wie wirkt es sich auf mich, mein Unternehmen, meine Produkte und Kunden aus? Die Unterscheidung zwischen Vertrauen als Haltung und Vertrauenswürdigkeit als Eigenschaft war ein kritischer Punkt, der zu viel Verwirrung führte.

Die Teilnehmer schrieben ihre Fragen und Herausforderungen in kleinen Gruppen auf Haftnotizen, die wir am Ende gemeinsam diskutierten. Fragen und Kommentare konnten mindestens in zwei Kategorien gegliedert werden: Technikbezogen und technikunbezogen. Die technikbezogenen Fragen beziehen sich eher auf die Vertrauenswürdigkeit als eine Eigenschaft. Themen wie Transparenz, Regulierung, Datenmanagement und -Sharing waren Beispiele.

Kein Vertrauen, ohne Transparenz oder woher weiss man, dass eine KI nicht verzerrt ist?

Wie weiss man, dass eine KI nicht voreingenommen ist?

Die technikbezogenen Fragen können mit den kognitiven Einflüssen auf das Vertrauen in Verbindung gebracht werden. Kognitive Einflüsse beziehen sich auf die These, dass Menschen darüber nachdenken, ob sie künstlicher Intelligenz vertrauen oder nicht. Es ist eine eher bewusste, rationale Perspektive. Die technikunbezogenen Themen befassen sich mit Fragen, wie z.B. der Angst von Algorithmen ersetz zu werden oder wie ein Unternehmen ein kulturelles Umfeld schaffen kann, um das volle Potenzial der künstlichen Intelligenz freizusetzen. Dies sind eher affektive (emotionale) Einflüsse auf das Vertrauen. Dieser Ansatz besagt, dass Menschen nicht nur darüber nachdenken, ob sie der KI vertrauen oder nicht, sondern es auch fühlen.

Wie können wir ein kulturelles Umfeld schaffen, um das volle Potential von KI zu nutzen?

Laut Lee & See neigen Menschen dazu, die kognitiven Einflüsse auf das Vertrauen zu überschätzen (wir konzentrieren uns auf Regeln, Richtlinien oder Erklärfähigkeit). Dabei laufen Menschen Gefahr die emotionalen Einflüsse auf das Vertrauen zu unterschätzen. Es wird vergessen, dass Vertrauen letztlich eine emotionale Reaktion ist (2004). Ausserdem, muss auch berücksichtigt werden, dass Vertrauen in unterschiedlichen Schichten kommt und dynamisch ist. Hoff & Bashir differenzieren drei Schichten des Vertrauens in die Automatisierung: Dispositions-, Situations- und erlerntes Vertrauen. Alle zu definieren würde den Rahmen dieses Artikels sprengen, aber im Kontext der künstlichen Intelligenz und in der Diskussion des Workshops ist die Unterscheidung zwischen anfänglichem und dynamisch erlerntem Vertrauen erwähnenswert. Anfänglich gelerntes Vertrauen repräsentiert Vertrauen vor der Interaktion mit einem System, während dynamisch gelerntes Vertrauen Vertrauen während einer Interaktion repräsentiert (2015, S. 30). Diese Unterscheidung ist insofern relevant, da vertrauensrelevante Massnahmen je nach Schicht unterschiedliche Bedeutung und Wirkung haben.

Die Tatsache, dass Vertrauensbeziehungen instabil und dynamisch sind, ist tröstlich und unangenehm zugleich. Unbehaglich, weil es keine Kontrolle, keine Konsistenz und keine Stabilität gibt, mit der wir rechnen können. Tröstlich, weil wir aufgrund der Vertrauensdynamik ständig mit unserem inneren Selbst in Kontakt bleiben, den Status quo reflektieren müssen, und wenn etwas schief gegangen ist, gibt es immer eine Chance, es wieder gut zu machen und Vertrauen wiederzugewinnen, wenn wir nur hart genug arbeiten.

Persönliche Reflektionen zum Fall Heidi Dohse

Heidi Dohse, professionelle Herzpatientin nimmt am Ironman Marathon teil

Heidi Dohse überlebte nicht nur dank grossartiger Hardware und zuverlässiger Algorithmen und angeschlossener Geräte. Jetzt hat sie ihren Herzschrittmacher an verschiedene IoT-Geräte und Datenaustauschplattformen angeschlossen, so dass sie nun in der Lage ist, den Ironman zu laufen dank der ständigen Überwachung und Anpassung des Herzschrittmachers während der Trainingseinheiten (der Ironman ist eine Art Marathon, eine sportliche Veranstaltung). Heute, 20 Jahre nach der ersten Herzoperation, hilft ihr die Technologie nicht nur zu überleben, sondern auch ein Leben anzustreben und zu leben, in dem sie ihre Träume und Ziele verfolgen kann, die vor 10 Jahren noch undenkbar waren. So sehr der Verfechter des Datenschutzes in mir Datenaustauschplattformen wie Strava missbilligen möchte, und die Forscherin in mir davor warnt, einen Einzelfall zu generalisieren, war es tröstlich und bewegend ihre Geschichte zu hören. Ich bin aufrichtig glücklich, dass sie dank der technologischen Entwicklungen ein glückliches, ausgefülltes Leben führen kann.

Abschliessende Gedanken

Künstliche plus Menschliche Intelligence

Wie immer geht es bei KI und Automatisierung nicht nur darum, menschliche Fähigkeiten zu ersetzen, sei es der Herzschlag oder die Intelligenz. Es geht um die angemessene Nutzung. Vertrauen ist einer der wichtigsten Einflüsse, wenn es darum geht, sich auf Technologie zu verlassen. Es ist entscheidend, in alle Facetten des Vertrauens zu investieren. Wenn das Potenzial der künstlichen Intelligenz genutzt werden soll, braucht sie etwas weniger Fassbares als gute Soft- und Hardware oder Datenschutzgesetze: Es braucht Integrität. Gesetze und technologische Sicherheit sind zwingend notwendige Voraussetzungen, um Vertrauen in die KI aufzubauen, aber das reicht nicht aus. Darüber hinaus beeinflussen sich die oben genannten Dimensionen gegenseitig in einer Weise, die noch weiterer Forschung bedarf. Frison et al. haben in ihrer Studie gezeigt, dass Fahrer die Vertrauenswürdigkeit von Fahrzeugen aufgrund von Designaspekten ableiten, die nichts mit der objektiven Leistung zu tun haben. Unter Bezugnahme auf den Halo-Effekt empfehlen die Autoren, dass Designer, in ihrem Fall die Fahrzeugkonstrukteure, Halo-Effekte sorgfältig berücksichtigen und [vermeiden] sollten. Das Problem ist, dass Benutzern der Eindruck zu vermittelt wird, dass die Systeme besser funktionieren, als sie es tatsächlich tun (Frison et al., 2019). Das kann gefährliche Folgen haben.

Um ein angemessenes Mass an Vertrauen in die KI zu schaffen, müssen die Nutzer lernen, kritisch zu denken. Skepsis und Vertrauen sind keine Gegner, sondern Tanzpartner, die die Anwender zur richtigen Entscheidung führen können. Nutzer müssen sich jetzt und mit Hilfe von Politik und Bildung wichtigen Fragen stellen: Inwieweit kann ich der künstlichen Intelligenz vertrauen und wo muss ich klare Grenzen setzen? Technologieanbieter müssen aufhören zu fragen, wie wir das Vertrauen der Nutzer in KI steigern können. Vertrauen ist eine Bemühung und man kann nicht dafür werben oder es kaufen. Vertrauen muss man sich verdienen. Die Rolle von Technologieunternehmen besteht darin, Vertrauen zu verdienen, indem sie zeigen, dass sie vertrauenswürdig sind (Botsman, 2020).

Literatur

Über die Autorin

Marisa Tschopp

Marisa Tschopp hat ihren Master in Wirtschaftspsychologie an der Ludwig-Maximilians-Universität in München absolviert. Sie ist aktiv in der Forschung zu Künstlicher Intelligenz aus Humanperspektive, wobei sie sich auf psychologische und ethische Aspekte fokussiert. Sie hat unter anderem schon Vorträge an TEDx Events gehalten und vertritt zudem die Schweiz als Ambassador in der Women in AI (WAI) Initiative. (ORCID 0000-0001-5221-5327)

Links

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!

×
Vertrauen und KI

Vertrauen und KI

Marisa Tschopp

Sprechen statt Tippen

Sprechen statt Tippen

Marisa Tschopp

Voice User Interfaces

Voice User Interfaces

Marisa Tschopp

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv