Künstliche Intelligenz - Kein Vertrauen, kein Nutzen?

Künstliche Intelligenz

Kein Vertrauen, kein Nutzen?

Marisa Tschopp
Marisa Tschopp
 Prisca Quadroni-Renella (extern)
Prisca Quadroni-Renella (extern)
Marc Ruef
Marc Ruef
am 11. November 2021
Lesezeit: 9 Minuten

Keypoints

Können und sollten wir KI vertrauen?

  • Vertrauen und Vertrauenswürdigkeit sind populäre Themen in der KI-Industrie und -Forschung
  • Ob wir tatsächlich in der Lage sind, Maschinen unser Vertrauen zu schenken, ist heftig umstritten
  • Wenn wir die Diskussion auf das "sollte" verlagern, verschiebt sich der Fokus auf die Vertrauenswürdigkeit
  • Wenn wir über Maschinen oder Eigenschaften sprechen, sollte der Fokus auf der Vertrauenswürdigkeit liegen
  • Gesetze und ethische Etiketten lösen das Vertrauensproblem nicht

Sie haben wahrscheinlich gehört, dass die Europäische Kommission im April 2021 einen Vorschlag zur Regulierung der Künstlichen Intelligenz (KI) vorgelegt hat, damit die Europäische Union die Vorteile der KI nutzen kann. Die Worte Vertrauen und Vertrauenswürdigkeit kommen in diesem Vorschlag über 100 Mal vor. Aber verstehen wir wirklich die Rolle des Vertrauens im Zusammenhang mit der KI?

In der Schweiz haben das Digital Trust Label, das Trust Valley oder das Center for Digital Trust durch das populäre Vertrauensthema ebenfalls an Schwung gewonnen und suggerieren, dass Vertrauen ein Katalysator für den erfolgreichen Einsatz von Technologien der künstlichen Intelligenz ist. Doch keine Geringere als Prof. Dr. Joanna Bryson hat einmal geschrieben: No one Should Trust AI. Was es mit dem ganzen Wirbel um das Vertrauen in KI oder die digitale Welt auf sich? Und werden Blockchain, Krypto oder die Label-Industrie all unsere Vertrauensprobleme lösen? (Spoiler-Alarm: Nein, nein, vielleicht irgendwie schon).

Die erste Frage zum Thema Vertrauen in KI: Können wir das überhaupt?

Kurze Antwort: Ja. Lange Antwort: Es ist kompliziert.

Die Frage, ob wir tatsächlich in der Lage sind, Maschinen unser Vertrauen zu schenken, wird zwischen den Trust Believers (Ja, wir können!) und den Trust Skeptikern (KI ist nichts, dem man vertrauen kann!) heiss diskutiert. Wir positionieren uns auf der Seite der Vertrauensgläubigen. Wir gehen davon aus, dass das Vertrauen von Mensch zu Mensch anders ist, aber übersetzt werden kann und in vielerlei Hinsicht der Art und Weise ähnelt, wie Menschen zum Ausdruck bringen, dass sie Maschinen vertrauen.

In zwischenmenschlichen Beziehungen lässt sich Vertrauen am besten als Bewältigungsstrategie für den Umgang mit Risiken und Unsicherheiten verstehen. Diese Bewältigungsstrategie ist eine Form der Bewertung von Eigenschaften dessen, dem vertraut werden soll. Dies kann zum Beispiel die Bewertung der Kompetenz der anderen Person sein, die der Vertrauensempfänger ist. Auf der Seite des Vertrauensgebers ist die Verwundbarkeit das entscheidende Element: In einer Beziehung gibt es immer ein gewisses Risiko, verletzt zu werden: Ist kein Risiko vorhanden, sprechen wir nicht mehr von Vertrauen.

Die Verletzlichkeit ist auch entscheidend, wenn es um das Vertrauen zwischen Mensch und Maschine geht. Letzteres kann mit Fragebögen gemessen werden, die das Ausmass des Vertrauens in eine bestimmte Technologie bewerten. Auf der Grundlage ihres Vertrauens erwarten wir ein Verhaltensergebnis: Ob und wie sie eine bestimmte Technologie nutzen und sich auf sie verlassen. Schlechte Leistung oder unklare Prozesse eines Systems und andere Faktoren der Vertrauenswürdigkeit können solche Schwachstellen sein, die die Vertrauenseinstellung der Menschen beeinflussen. Der Schlüssel dazu ist, zu verstehen, dass Vertrauen und Vertrauenswürdigkeit zwei unterschiedliche Konzepte sind, die leider oft miteinander vermischt werden.

Zusammengefasst, geht aus all diesen Diskussionen hervor, dass drei Dinge wichtig zu verstehen sind: Erstens ist Vertrauen eine Haltung gegenüber einem beteiligten Anderen (der eine Maschine sein kann), wobei zweitens diesem Anderen anvertraut wird, bei der Erreichung eines bestimmten Ziels zu helfen, und drittens ist die gesamte Situation von Unsicherheit geprägt (man denke: Ich vertraue Amazon, dass es mein Paket pünktlich liefert, aber ich vertraue Amazon nicht, dass es meine Privatsphäre respektiert).

⇒ Also, ja, wir können KI im Sinne von wir sind dazu in der Lage vertrauen, wenn wir dies in einem konkreten Kontext des Vertrauens zwischen Mensch und Maschine definieren. Aber nur weil wir es theoretisch können, sollten wir es auch tun?

Die zweite Frage zum Thema Vertrauen in KI: Sollten wir?

Kurze Antwort: Nein. Lange Antwort: Es ist kompliziert.

Praktisch und normativ gesehen ist die Frage Sollten wir der KI vertrauen? viel interessanter, weil sie die Diskussion auf das Thema der Vertrauenswürdigkeit verlagert. Während Vertrauen die Einstellung eines Menschen und eine komplizierte latente Variable in psychometrischer Hinsicht ist, ist Vertrauenswürdigkeit eher ein technischer Begriff und bezieht sich auf die Eigenschaften der Technologie. Brysons Aussage Niemand sollte der KI vertrauen ist äusserst effektiv, um eine Botschaft zu vermitteln: Man sollte KI-Systeme (und viele andere Systeme) nicht blindlings benutzen.

Ein oft zitiertes Beispiel für falsches blindes Vertrauen ist der gut ausgebildete Tesla-Fahrer, der bei einem Unfall ums Leben kam, weil er Computer spielte und überhaupt nicht auf die Strasse achtete. Er vertraute dem System zu sehr, um sein Ziel zu erreichen. Ob dies ein Problem des übermässigen Vertrauens, irreführender Muskianischer Marketingstrategien, der Intelligenz des Fahrers oder einer Mischung aus allem ist, wird ein Geheimnis bleiben. Nichtsdestotrotz ist die Erziehung der Menschen zu Zero-Trust wahrscheinlich der sicherste Weg, um nicht von Maschinen verletzt zu werden.

Allerdings ist es auch nicht ideal, einem System nicht zu vertrauen und sich zu weigern, es zu benutzen, obwohl es zu besseren Ergebnissen führen könnte. Idealerweise würden wir das Konzept des kalibrierten Vertrauens fördern, bei dem der Nutzer den Grad des Vertrauens (und ob und wie er sich auf ein System verlässt) an die Leistung des jeweiligen Systems anpasst (oder dagegen?). Warum das dagegen? Weil wir wissen, dass viele Unternehmen die wahren Fähigkeiten eines Systems entweder übertreiben oder verschweigen, um ihre Produkte zu verkaufen (= Hype, der auf den Prüfstand gestellt werden muss). Die Kalibrierung des Vertrauens kann sowohl auf der Maschinenseite (z.B. auf Ebene des Designs) als auch auf der Menschseite (z.B. durch kognitive Bemühungen) stattfinden.

⇒ Die Kalibrierung des Vertrauens kann also Leben retten, aber im Falle von Ungewissheit und hohem Risiko in Mensch-Maschine-Beziehungen sind wir wahrscheinlich mit einem zero-trust Ansatz besser beraten (better safe, than sorry).

Die dritte Frage lautet: Sollten wir aufhören, über Vertrauen zu sprechen?

Kurze Antwort: Ja. Lange Antwort: Es ist kompliziert.

Wir denken, dass die wichtigste Botschaft der Aussage, dass man KI nicht vertrauen sollte, lautet: Denkt nach, bevor ihr handelt. Aber Denken ist anstrengend. Wäre es nicht toll, wenn wir einem Unternehmen tatsächlich blind vertrauen könnten, dass es meine Privatsphäre respektiert und meine Produkte pünktlich liefert? Nun, hier hilft keine Blockchain oder Krypto-Lösung. Ein gutes Ethik oder Trust-Label mag ein guter Anfang sein, was all die Dinge angeht, die auch nicht gesetzlich geregelt sind. Aber machen wir die Dinge nicht noch komplizierter, indem wir einen weiteren Akteur in die Vertrauensgleichung einfügen, die wir ohnehin nicht ganz verstehen? Werden wir in Zukunft das Vertrauen in Labels als einen weiteren Proxy für das Vertrauen in Maschinen untersuchen?

⇒ Vertrauen als Einstellung ist für Psychologen interessant. Aber wenn wir über Maschinen oder Eigenschaften sprechen, sollten wir die richtigen Begriffe verwenden und uns auf die Vertrauenswürdigkeit konzentrieren, denn das ist das, was wir am besten kontrollieren können.

Folgefrage: Was ist mit Recht und Vertrauen?

Um Vertrauenswürdigkeit zu gewährleisten, sind Etiketten gut, aber sind Gesetze nicht besser? Sollten wir nicht alle unsere Bemühungen in Gesetze und Vorschriften stecken? Ist das unser einziger wahrer Indikator für Vertrauenswürdigkeit? Erstens: Ja, wir müssen uns sehr um Gesetze und Vorschriften bemühen, um Verantwortlichkeit zu gewährleisten. Zweitens, nein: Die Gleichung von Recht und Vertrauen ist ein Trugschluss. Wir sind der Meinung, dass die Stärkung des Vertrauens nicht die Motivation für die Schaffung von Gesetzen sein sollte. Stattdessen sollte es um Rechenschaftspflicht und eine funktionierende Gesellschaft gehen. Der Hauptzweck eines Gesetzes ist immer noch die Festlegung von Normen, die Aufrechterhaltung der Ordnung, die Beilegung von Streitigkeiten und der Schutz von Freiheiten und Rechten, nicht die Schaffung von persönlichem Vertrauen oder von Vertrauen in KI an sich.

Fazit

Gesetze und Labels lösen die Gleichung No Trust, No Use nicht. In der Tat gibt es vielleicht nicht einmal eine solche Gleichung, wie: Je mehr wir vertrauen, desto mehr nehmen wir in Anspruch. Die Menschen verlassen sich aus den irrationalsten Gründen auf die unzuverlässigsten Produkte, denn der rationale homo oeconomicus ist schon lange tot. Der Homo sociologicus bevorzugt jetzt Bequemlichkeit und Geselligkeit. Der Mensch neigt dazu, bis in die tiefste Zelle hinein sozial zu sein. Wir lieben Menschen, wir lieben Verbindungen, und weil wir keine andere Quelle für Verhaltenswissen haben, das wir nutzen können, vermenschlichen wir sogar Maschinen.

Aber Anthropomorphismus ist nicht nur schlecht, es sei denn, man vermenschlicht Maschinen, um Menschen absichtlich zu manipulieren. Ja, der Begriff vertrauenswürdige KI ist eine anthropomorphe Sprache. Dennoch vermittelt er sofort eine Botschaft, die von fast jedem verstanden wird, der eine Vorstellung von diesem unscharfen Gefühl des Vertrauens hat. Würde man von erklärbarer oder verantwortlicher KI sprechen, würde das nur ein sehr kleiner Teil der Menschen verstehen.

So sehr die Begriffe Vertrauen und Vertrauenswürdigkeit im Zusammenhang mit KI berechtigte Kritik verdient haben, so sehr kann man sie auch loben. Die Menschen, die diesen Begriff verwenden, wollen die Hauptgründe für den Aufbau und die Nutzung dieser komplexen Technologien und ihre Auswirkungen auf die Gesellschaft implizit für jeden verständlich machen. Vielleicht wäre es für uns alle besser, wenn wir uns ein wenig entspannen und vertrauenswürdige KI eher als eine Vision denn als ein Statement für technische Genauigkeit sehen würden.

Links

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!

×
Konkrete Kritik an CVSS4

Konkrete Kritik an CVSS4

Marc Ruef

scip Cybersecurity Forecast

scip Cybersecurity Forecast

Marc Ruef

Ist das Kunst? Persönliche Reflexionen über meine KI-Kunstwerke

Ist das Kunst? Persönliche Reflexionen über meine KI-Kunstwerke

Marisa Tschopp

Voice Authentisierung

Voice Authentisierung

Marc Ruef

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv