Mensch und KI - Eine Sache des Vertrauens

Mensch und KI

Eine Sache des Vertrauens

Marisa Tschopp
von Marisa Tschopp
am 04. November 2024
Lesezeit: 14 Minuten

Keypoints

Vertrauen bestimmt, ob und wie wir uns auf künstliche Intelligenz (KI) verlassen

  • Die Beziehungen zwischen Mensch und KI verlagern sich von Werkzeugen zu Kollaborateuren wie Co-Piloten
  • Vertrauen und Vertrauenswürdigkeit spielen eine Schlüsselrolle bei der Interaktion zwischen Mensch und KI
  • Die Unterscheidung zwischen tatsächlicher und wahrgenommener Vertrauenswürdigkeit ist wichtig
  • Technische Standards definieren die Vertrauenswürdigkeit, aber die Nutzer vertrauen auch nicht-technischen Hinweisen wie dem Design
  • Der Aufbau vertrauenswürdiger KI erfordert Transparenz und die Abstimmung von Vertrauen und Realität

Da sich die KI von einfachen Werkzeugen zu Co-Piloten und Begleitern entwickelt, wird das Vertrauen in die KI noch komplexer. Das Vertrauen hängt von der tatsächlichen Vertrauenswürdigkeit des Systems ab, aber die meisten von uns können die Vertrauenswürdigkeit nur anhand dessen beurteilen, was wir sehen, wie z. B. das Design oder den Ton eines Chats oder ein erreichtes Label. Wie können wir also die Kluft zwischen dem, was KI tatsächlich leisten kann, und dem, wie vertrauenswürdig sie sich anfühlt, überbrücken?

Vertrauen in KI: Die Reise einer Psychologin in der Cybersicherheit

Vor sieben Jahren befand ich mich an einer ungewöhnlichen Kreuzung: Ich begann eine Arbeit in der Forschung als Psychologin in einem Cybersicherheitsunternehmen. Mein Ziel war es, die Beziehung zwischen Mensch und Technologie zu untersuchen, insbesondere die künstliche Intelligenz, und in einem praktischen Umfeld zu arbeiten, in dem menschliche Faktoren eine wichtige Rolle spielen. Anders als in der akademischen Forschung, wo sich die Arbeit oft distanziert anfühlt, wollte ich eine Aufgabe, die nah am Menschen ist. Um ehrlich zu sein, dachte ich nicht, dass Psychologie in der Cybersicherheit besonders nützlich sein würde, abgesehen von der Frage, warum Menschen auf Spam oder Social Engineering-Tricks hereinfallen. Als ich anfing, untersuchten wir, wie die Psychologie die Kernarbeit der Cybersicherheit unterstützen könnte. Ich war nicht dazu da, Systeme zu hacken, dafür hatten sie Experten. Vielleicht war ich dort, um Menschen zu hacken, obwohl mir dieser Begriff seltsam vorkommt. Aber in gewisser Weise beschreibt er den Kern dessen, was Psychologen tun: Wir beobachten menschliches Verhalten, analysieren Daten und versuchen vorherzusagen, was Menschen als nächstes tun könnten.

In diesen Diskussionen stach ein Thema hervor: Vertrauen. Es geht darum, die Interaktion zwischen Mensch und KI zu beobachten und zu bewerten, inwieweit sich daraus ableiten lässt, wie Menschen KI-Systeme nutzen oder sich auf sie verlassen. Dieses Thema ist weltweit relevant geblieben. Im Bereich der Cybersicherheit wird Vertrauen oft diskutiert, aber nicht immer begrüsst, zumal zero-trust (Null-Vertrauen) eine gängige Strategie ist. Dennoch bleibt Vertrauen grundlegend. Es prägt die Art und Weise, wie wir miteinander und mit der Technologie interagieren, auch wenn es Ängste auslösen kann, wenn es so leicht von Menschen und Maschinen gleichermassen missbraucht werden kann.

Vertrauen in KI: Eine Haltung, die auf kognitiven und emotionalen Grundlagen beruht

In den letzten Jahren haben wir uns intensiv mit dem Verständnis von Vertrauen in KI beschäftigt. Vertrauen entwickelt sich im Wesentlichen aus einer Mischung von Gedanken und Gefühlen, vielleicht zu verstehen als eine Art Haltung. Diese Gedanken und Gefühle helfen uns bei der Entscheidung, ob eine KI uns bei der Erreichung eines Ziels helfen kann, vor allem, wenn Ungewissheit oder Risiko im Spiel sind. Sollten wir zum Beispiel ChatGPT vertrauen, etwas Wichtiges zu schreiben, oder Alexa, einen Einkauf zu tätigen? Oft kennen wir nicht alle Details dieser Systeme, sodass es einen Vertrauensvorschuss erfordert, ihnen zu vertrauen. Völlige Gewissheit ist schliesslich eine Illusion.

Beim Einsatz von KI können wir uns entweder blindlings darauf einlassen oder Widerstand leisten. Oder wir können einen Mittelweg finden, den manche als kalibriertes Vertrauen bezeichnen, ein Begriff, den wir bei unseren früheren Bemühungen im Unternehmen übernommen haben. Bei diesem Ansatz wird das Bauchgefühl mit logischen Einschätzungen darüber kombiniert, wie vertrauenswürdig eine Maschine ist. Kürzlich habe ich von Professor Markus Langer den Begriff informiertes Vertrauen gehört, bei dem es darum geht, überlegte Entscheidungen zu treffen. Obwohl mir beide Begriffe zu rational erscheinen mögen. Wir sollten nicht vergessen, dass das Vertrauen in die KI nicht nur eine mentale Berechnung ist, sondern auch Emotionen beinhaltet. Vielleicht mehr, als wir wahrhaben wollen, weil wir uns immer noch irgendwie an den Gedanken klammern, dass wir als Homo oeconomicus allzu klug und rational in unseren Entscheidungen sind.

Die Menschen denken nicht nur darüber nach, ob sie KI vertrauen, sie fühlen es auch. Und mit diesen Gefühlen geht ein Gefühl der Verwundbarkeit einher, über das wir selten sprechen, wenn es um Maschinen geht. Im Bereich der Cybersicherheit wird Verwundbarkeit in der Regel als ein technisches Problem betrachtet, als Schwachstelle, die Hacker ausnutzen können. Aus menschlicher Sicht bedeutet Vertrauen, dass wir uns einem Risiko oder der Möglichkeit einer Enttäuschung aussetzen. Aus diesem Grund betrachten manche Menschen Vertrauen als ein wertvolles Geschenk, das wir anderen machen. Eine Offenheit gegenüber anderen, die wir in alltäglichen Beziehungen finden, wie das Vertrauen in einen Partner, Chef oder Arzt.

Das Vertrauen in KI bringt seine eigene Form der Verwundbarkeit mit sich. Aber im Bereich der Cybersicherheit werden wir oft dazu angehalten, diesen übermässig vermenschlichten Begriff zu vermeiden. Vertrauen gibt es nur zwischen Menschen. Stattdessen konzentrieren wir uns auf Kontrolle, Zuverlässigkeit und zero-trust, um auf der sicheren Seite zu sein. Mit diesen Ansätzen fühlen wir uns stärker, ignorieren aber oft die emotionale Komplexität des menschlichen Vertrauens. KI zu vertrauen bedeutet, neben der kognitiven Seite auch die emotionale Seite zu erkennen, eine Schwachstelle, die wir gerade erst zu verstehen beginnen.

Denken Sie an persönliche Assistenten wie Alexa oder Google Assistant. Ihnen zu vertrauen, geht über Datenschutzeinstellungen hinaus. Es bedeutet, dass wir einer Maschine erlauben, in unser Privatleben einzudringen, Fragen zu beantworten und sogar Bedürfnisse vorherzusagen. Diese Art von Vertrauen erfordert, dass wir unsere Wachsamkeit verringern und zugeben, dass es Risiken birgt, wenn wir der Technologie so nahe kommen.

In Situationen, in denen viel auf dem Spiel steht, wie im autonomen Fahren oder in der medizinischen KI, ist das Vertrauen sogar noch stärker gefährdet. Wir legen unsere Sicherheit in die Hände von Systemen, die wir nicht vollständig verstehen, die schwierige Fragen aufwerfen. Können wir der KI vertrauen, dass sie die richtigen Entscheidungen für unsere Gesundheit trifft? Was passiert, wenn sie versagt? An wen sollen wir uns wenden? Der KI – oder dem Menschen – zu vertrauen, bedeutet, die vollständige Kontrolle abzugeben, selbst wenn wir die Risiken nur teilweise verstehen. Und das, die Kontrolle aufzugeben, egal aus welchem Grund oder unter welchem Vorwand, ist sicherlich keine gute Idee, wenn viel auf dem Spiel steht.

Wenn man darüber nachdenkt, ist vielleicht das Vertrauen selbst die Schwachstelle im Cyberspace. Wenn wir uns entscheiden zu vertrauen, öffnen wir uns für möglichen Schaden. Warum also tun wir es? Aus Bequemlichkeit, Effizienz oder aus dem Bedürfnis heraus, mitzuhalten?

Jenseits von Vertrauen: Mensch-KI-Beziehungen und Zusammenarbeit

Vielleicht hoffen wir tief im Inneren, dass das Vertrauen zu neuen Wegen der Arbeit mit KI führt, sodass KI unser Denken und Handeln wirklich bereichert. Wir scheinen uns auf eine Ära zuzubewegen, in der KI mehr ist als nur ein Werkzeug. Dieser Wandel ist durch das neue Marketing-Paradigma gekennzeichnet: Der Aufstieg der KI als Co-Pilot, Gleichgesinnte und Gefährtin. Vor ein paar Jahren habe ich vorausgesagt, dass digitale Assistenten aussterben werden. Es begann mit dem Tod von Cortana, Microsofts digitalem Assistenten. Alexa und Siri, die es immer noch gibt, wurden einst entwickelt, um zu helfen, waren aber auf Worthülsen, unbeholfene Pausen und einfache, unhöfliche Befehle in der Kommunikation beschränkt. Dann kamen neue KI-Modelle wie GPT auf. Diese Systeme entsprechen nicht mehr der alten Vorstellung von Werkzeugen unter unserer Kontrolle. Stattdessen stellen sie sich als Kollaborateure dar, die sich mit uns auf Augenhöhe unterhalten und (vermeintlich) intelligent und viel reibungsloser reagieren.

Dies erinnert mich an die provokative Haltung von Professor Joanna Bryson in ihrem bekannten Artikel Robots Should Be Slaves. Der Hauptpunkt für mich ist, dass Roboter lediglich Werkzeuge sind, keine Partner, nichts, dem man vertrauen oder mit dem man zusammenarbeiten kann oder sollte. Dennoch wird KI heute als viel mehr als ein einfaches Instrument vermarktet. Sie wird als Begleiter, Co-Pilot und sogar als Vertrauensperson verkauft. Microsofts Copilot verspricht die gemeinsame Erstellung von Dokumenten und Präsentationen, ChatGPT preist sich selbst als Brainstorming-Hilfe für tägliche Aufgaben an, und Replika AI meditiert sogar mit Ihnen und verwandelt sich auf subtile Weise vom Werkzeug zum emotionalen Partner oder Guru. Diese Systeme werden nicht nur als Produktivitätswerkzeuge vermarktet. Sie werden als Kollaborateure oder sogar als Beziehungsersatz positioniert.

Wir sollten diesen Wandel mit Vorsicht angehen. Verwischen wir die Grenze zwischen Unterstützung und Autonomie, werden wir abhängig von Systemen, die keine echten Partner sind und wohl auch nicht sein sollten? Haben wir aufgehört, diese Werkzeuge einfach nur zu kommandieren, und sind wir stattdessen dazu übergegangen, mit ihnen zu arbeiten, zu denken und sogar zu lieben? Die Frage der Kollaboration wurde in einem aufschlussreichen Artikel von Katie Evans et al. im vergangenen Jahr (2023) scharf gestellt. Seitdem ich ihn gelesen habe, habe ich mir eine Gewohnheit angewöhnt: Wann immer ich KI sehe, ersetze ich sie im Geiste durch Toaster oder Hammer. Das erinnert mich daran, dass es sich bei diesen Systemen um Werkzeuge handelt. Schliesslich fände ich es ziemlich seltsam, wenn jemand behaupten würde, er würde seinen Toast mit seinem Toaster kollaborativ co-backen. Und doch. Im Moment fühlt sich die KI jedoch zumindest anders an als gewöhnliche Werkzeuge, obwohl sie es nicht ist. Ihre Reaktions- und Anpassungsfähigkeit verleiht ihr eine Präsenz, die sich dynamischer anfühlt als einfache Maschinen und Software. Und angesichts der laufenden Diskussionen über fortgeschrittene KI, die möglicherweise die menschliche Intelligenz übertrifft, scheint der Vergleich von KI mit Hämmern für viele veraltet, undenkbar oder unbeholfen (obwohl er in Wirklichkeit sehr hilft, viele Behauptungen zu relativieren).

Die Sache mit der Vertrauenswürdigkeit

Kürzlich hatte ich die Gelegenheit, mit Nadine Schlicker von der Universität Marburg zusammenzuarbeiten (und mich mit ihr anzufreunden), und wir führten tiefe und fruchtbare Diskussionen über Vertrauen und Vertrauenswürdigkeit in der KI (ausserdem Meerschweinchen, Herr der Ringe, IPA und Volleyball, aber das ist eine andere Geschichte).

Vertrauen – die Bereitschaft, verletzlich zu sein – ist komplex und wird von vielen Faktoren beeinflusst, nicht wahr? Deshalb bieten Nadine und ihre Mitautoren ein Modell an, das sich auf einen bestimmten Faktor konzentriert, der das Vertrauen beeinflusst: Die wahrgenommene Vertrauenswürdigkeit des anderen, in diesem Fall des Systems. Einer der Hauptgedanken ihres Modells ist, dass Menschen mit unterschiedlichen Werten und Zielen die Vertrauenswürdigkeit eines Systems unterschiedlich einschätzen können.

Im Grunde können wir davon ausgehen, dass die tatsächliche Vertrauenswürdigkeit eines Systems verborgen ist und nicht vollständig beobachtet werden kann. Das liegt zum einen daran, dass das System wie eine Blackbox ist, d.h. wir können nicht alles in ihm sehen, und zum anderen daran, dass wir es nicht mit allen möglichen Datensätzen der Welt testen können. Stattdessen verlassen wir uns z. B. auf Experteneinschätzungen, aber auch diese erfassen nur einen Teil der eigentlichen Vertrauenswürdigkeit des Systems, da sie auf begrenzten Daten, spezifischen Szenarien und unterschiedlichen Standards beruhen.

Ich schätze an diesem Modell die Unterscheidung zwischen tatsächlicher und gefühlter Vertrauenswürdigkeit. Im Bereich der Cybersicherheit wird Vertrauenswürdigkeit oft durch technische Standards wie Sicherheitsprotokolle definiert. Obwohl diese Standards wichtig sind, fehlt den meisten Menschen das Fachwissen, um sie zu bewerten. Für viele beruht das Vertrauen immer noch hauptsächlich auf wahrgenommenen Eigenschaften und nicht auf den tatsächlichen Merkmalen des Systems.

Dies wirft eine wichtige Frage auf: Wie können wir Vertrauen aufbauen, wenn die tatsächliche und die wahrgenommene Vertrauenswürdigkeit nicht übereinstimmen? Idealerweise sollten wir nur Systemen vertrauen, die wir vollständig verstehen, aber das ist selten möglich. Die Herausforderung besteht darin, die Kluft zu überbrücken und Wege zu finden, die tatsächliche und die wahrgenommene Vertrauenswürdigkeit in Einklang zu bringen. Dieser Abgleich ist entscheidend, um die Nutzer zu schützen und ihnen die Möglichkeit zu geben, fundierte Entscheidungen zu treffen. Wenn wir dies verstehen, können wir KI entwickeln, die nicht nur vertrauenswürdig ist, sondern sich auch vertrauenswürdig anfühlt.

Praktische Erkenntnisse: Vertrauenswürdige Systeme

Es ist wichtig, die beiden Seiten der Vertrauenswürdigkeit zu verstehen: Echte Vertrauenswürdigkeit, d. h. wie zuverlässig ein System tatsächlich ist, und wahrgenommene Vertrauenswürdigkeit, d. h. wie zuverlässig es den Nutzern erscheint. Echte Vertrauenswürdigkeit hängt von soliden technischen Standards ab, wie z. B. einer medizinischen KI, die sorgfältig getestet wurde. Was genau wäre denn eine Definition von ‘sorgfältig’ testen? Es wäre naiv anzunehmen, dieser Begriff sei eindeutig und unmissverständlich.

Die wahrgenommene Vertrauenswürdigkeit kann durch andere Dinge beeinflusst werden, wie den freundlichen Ton eines Chatbots oder die Sicherheitssiegel einer Finanz-App, die nicht immer die tatsächliche Zuverlässigkeit des Systems widerspiegeln. Wir sollten versuchen, unser Vertrauen auf relevante Quellen zu stützen, wie z. B. technische Berichte oder Validierungen, und nicht auf Emotionen, die durch das Erscheinungsbild des Systems ausgelöst werden. Die wahrgenommene Vertrauenswürdigkeit kann jedoch zutreffend sein, wenn sie auf den richtigen Signalen beruht, daher sollten wir nicht davon ausgehen, dass sie immer falsch ist.

Wie Nadine Schlicker es ausdrückt, sollten die derzeitigen Bemühungen zur Entwicklung vertrauenswürdiger KI mehr als nur die Frage berücksichtigen, wie man KI zuverlässig machen kann. Wir sollten uns auch fragen, wie wir Systeme entwickeln können, die es verschiedenen Nutzern ermöglichen, die Vertrauenswürdigkeit von KI auf der Grundlage ihrer eigenen Bedürfnisse zu bewerten. Dies erfordert klare Standards und Anhaltspunkte, die verschiedenen Nutzergruppen helfen, KI effektiv zu bewerten.

Fazit

Vertrauen in KI ist zu einem zentralen Thema geworden, insbesondere in meiner Arbeit als Psychologin im Bereich der Cybersicherheit. Vertrauen ist eine komplexe Interaktion zwischen dem, was wir für vertrauenswürdig halten, und der Art und Weise, wie wir dem Gegenüber, hier das System, wahrnehmen. Es ist eine Mischung aus rationalem Urteil und emotionaler Reaktion, geprägt von unserer Bereitschaft, Risiken einzugehen und verletzlich zu sein – ein Aspekt, der in der Welt der Technologie nur allzu gerne verdrängt wird. Mit der Entwicklung der KI von einfachen Werkzeugen zu dem, was wir heute Co-Piloten oder Begleiter nennen, könnte sich unsere Wahrnehmung dieser Systeme schnell ändern. Tools wie ChatGPT und Microsofts Copilot sind nicht mehr nur dazu da, um Befehle zu befolgen, sondern sie werden jetzt als Partner präsentiert. Dieser Wandel führt zu neuen Fragen: Können (oder sollten) wir diesen Systemen wirklich vertrauen, und wie können wir wissen, ob sie zuverlässig sind? Für die meisten Menschen sind technische Bewertungen schwer zu verstehen, daher verlassen wir uns auf Anhaltspunkte wie Design oder Nutzerbewertungen, die nicht immer der Realität entsprechen.

Um KI wirklich vertrauenswürdig zu machen, brauchen wir mehr als nur gute Technologie. Wir müssen dafür sorgen, dass die Nutzer sehen und verstehen können, was ein System zuverlässig macht. Nur wenn echte Vertrauenswürdigkeit und das, was die Menschen empfinden, übereinstimmen, können wir KI entwickeln, die gut platziertes Vertrauen hervorruft und uns hilft, in dieser komplexen neuen Welt zu navigieren.

Weiterführende Literatur

Über die Autorin

Marisa Tschopp

Marisa Tschopp (Dr. rer. nat., Universität Tübingen) ist aktiv in der Forschung zu Künstlicher Intelligenz aus menschlicher Perspektive, wobei sie sich auf psychologische und ethische Aspekte fokussiert. Sie hat ihre Expertise unter anderem auf TEDx-Bühnen geteilt und repräsentiert die Schweiz in Genderfragen innerhalb der Women in AI Initiative. (ORCID 0000-0001-5221-5327)

Links

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!

×
Ist das Kunst? Persönliche Reflexionen über meine KI-Kunstwerke

Ist das Kunst? Persönliche Reflexionen über meine KI-Kunstwerke

Marisa Tschopp

Conversational Commerce

Conversational Commerce

Marisa Tschopp

ChatGPT & Co.

ChatGPT & Co.

Marisa Tschopp

TEDxBoston Countdown to AGI

TEDxBoston Countdown to AGI

Marisa Tschopp

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv