Vertrauenswürdige KI - Können Gesetze Vertrauen in KI schaffen?

Vertrauenswürdige KI

Können Gesetze Vertrauen in KI schaffen?

Prisca Quadroni-Renella (extern)
Prisca Quadroni-Renella (extern)
Marisa Tschopp
Marisa Tschopp
am 16. September 2021
Lesezeit: 11 Minuten

Keypoints

Beziehung zwischen Vertrauen und Recht ist kontraintuitiv und paradox

  • Vertrauen und Vertrauenswürdigkeit werden im EU-Vorschlag zur Regulierung von KI häufig verwendet
  • Die Beziehung zwischen Vertrauen und Recht wird kontrovers diskutiert
  • Die Steigerung des Vertrauens sollte nicht die Motivation für die Schaffung von Gesetzen sein
  • Motivatoren sollten Verantwortlichkeit und eine funktionierende Gesellschaft sein

Der Vorschlag der Europäischen Kommission für eine KI-Verordnung ist ein Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz, der Artificial Intelligence Act und zur Änderung bestimmter Rechtsakte der Union (veröffentlicht im April 2021). Die Begründung zielt unter anderem explizit darauf ab, ein Ökosystem des Vertrauens zu implementieren, indem ein rechtlicher Rahmen für vertrauenswürdige KI vorgeschlagen wird, und das Wort Vertrauen wird mehrfach erwähnt (14 trust, 1 trusted, 2 trustful, 21 trustworthy, 3 trustworthiness, 6 entrusted, 1 entrusting).

Dies ist aus der Sicht des Schweizer Rechts etwas überraschend. Denn im Schweizer Recht wird Vertrauen (Deutsch: Vertrauen / Italienisch: Fiducia / Französisch: Confiance) weder im Schweizerischen Zivilgesetzbuch noch im Obligationenrecht noch im Bundesgesetz über die Produkthaftung erwähnt, die grundlegende Rechtsgrundlagen darstellen. Dieser Trend zeichnet sich jedoch auch in der Schweiz ab: Das zweite zentrale Ziel der Strategie Digitale Schweiz ist die Gewährleistung von Sicherheit, Vertrauen und Transparenz. Vertrauen scheint also ein wichtiger Aspekt in Bezug auf KI zu werden, und das Governance-System (d.h. Strukturen und Prozesse, die Rechenschaftspflicht, Transparenz, Rechtsstaatlichkeit und breite Partizipation sicherstellen sollen) selbst sowie die Regulierungsbehörden, die es anwenden, scheinen das Vertrauen der Öffentlichkeit gewinnen zu müssen (Sutcliffe & Brown, 2021). Aber worüber genau sprechen wir, wenn wir von Vertrauen sprechen?

Trust Believers vs. Trust Skeptics: Vertrauen in KI-Systeme ist ein heiss diskutiertes Thema

Die extensive Verwendung des Vertrauenskonstrukts im regulatorischen Kontext wird auch von Kritik begleitet. Das Thema Vertrauen kann je nach Blickwinkel sehr unterschiedlich betrachtet werden. Einige, wie Joanna Bryson, argumentieren, dass KI nichts ist, dem man vertrauen kann, da KI-Systeme niemals als verantwortlich dargestellt werden sollten.

Andere bezweifeln, dass die Nutzer dem Produkt oder System tatsächlich vertrauen können, da es nur der Stellvertreter des Designers oder Entwicklers ist, der das Produkt entworfen hat. Darüber hinaus ist umstritten, wer tatsächlich als vertrauenswürdig wahrgenommen werden kann oder nicht, was sich auf die Vertrauenswürdigkeit, die Eigenschaft des Vertrauensempfängers, bezieht. Dies könnte Integrität für Menschen oder Leistung für Maschinen sein. In einem einflussreichen Bericht über Vertrauen von Hoff & Bashir heisst es, dass das Vertrauen zwischen Mensch und Maschine als eine besondere Form des zwischenmenschlichen Vertrauens betrachtet werden kann, bei dem der Vertrauensnehmer (d. h. der vertrauenswürdige Akteur) einen Schritt vom Vertrauensgeber entfernt ist. Es gibt jedoch auch Argumente, die für eine direkte Vertrauensbeziehung zwischen Mensch und Technik sprechen. Im Zusammenhang mit automatisierten Fahrzeugen kann es zum Beispiel tatsächlich so sein, dass der eingesetzten Automatisierung in bestimmten Situationen vertraut wird. Das Thema Vertrauen ist in der Tat kompliziert, und man kann keine der beiden Seiten vernachlässigen. Beide Ansichten haben gültige Argumente, und egal, woher man kommt, Vertrauen sollte immer mit Vorsicht verwendet werden. Aus der Perspektive der Mensch-KI-Interaktion ist Vertrauen als psychologisches Konstrukt unverzichtbar. In einem regulatorischen Kontext ist Vertrauen jedoch recht problematisch.

In diesem Beitrag versuchen wir – eine Anwältin und eine Psychologin – zunächst zu verstehen, ob und wie Vertrauen regulatorisch aufgebaut werden soll. Zweitens skizzieren wir unsere Auffassung und kommen schliesslich zu dem Schluss, dass Vertrauen im regulatorischen Kontext kein angemessener Begriff ist, aber nützlich, wenn es um die Kommunikation mit der breiten Öffentlichkeit geht.

Können Regeln vertrauen schaffen?

Laut Hilary Sutcliffe, Direktorin der Trust in Tech Governance-Initiative, und Sam Brown, Director of Consequential, müssen die Regulierungsbehörden für KI (z.B. Regierungen und Normungsgremien) drei Faktoren umsetzen, um als vertrauenswürdig zu gelten und so das Vertrauen der Öffentlichkeit in ihren Ansatz zu gewinnen:

  1. Sicherstellung einer wirksamen Durchsetzung (d. h. Erzwingen der Einhaltung von Gesetzen, Regeln oder Verpflichtungen),
  2. Erklären, was sie tun, und mehr über ihre Rolle kommunizieren und
  3. Stärkung der Bürger und Entwicklung umfassender Beziehungen zu ihnen.

Die drei oben genannten Faktoren beziehen sich auf eine Art Systemvertrauen, d. h. Vertrauen in das Regierungs- und Rechtssystem, und werden in gewisser Weise bereits im Gesetzgebungsverfahren umgesetzt. Unserer Ansicht nach ist das Schlüsselwort die Rechtssicherheit, d.h. zu wissen, was man erwarten kann, insbesondere wie die KI-Regeln von den Richtern angewendet werden. Es muss eine einheitliche und regelmässige Anwendung im Laufe der Zeit geben. Der Bürger muss wissen, was er zu erwarten hat, und er muss wissen, dass sein Fall auf die gleiche Weise behandelt wird und zum gleichen Ergebnis führt wie ein identischer Fall in einem anderen Teil des Landes. Wenn jeder Staat oder Kanton dieselben Fälle effektiv, aber auf unterschiedliche Weise anwendet, wird das Vertrauen in das System verloren gehen.

Wir sind daher nicht der Meinung, dass Regeln, allein durch ihre Existenz, Vertrauen schaffen können.

Sollten Regeln vertrauen schaffen?

Nach Ansicht von Daniel Hult, Dozent an der School of Business, Economics and Law der Universität Göteborg, sollte die Regierung auf jeden Fall davon absehen, persönliches Vertrauen durch Gesetze zu schaffen. Seiner Meinung nach besteht ein praktikableres Regulierungsziel darin, Anreize für ein vertrauenswürdiges Verhalten der gesellschaftlichen Akteure zu schaffen (weil sie mehr oder weniger gezwungen sind, auf eine bestimmte Art und Weise zu handeln), was als positiver Nebeneffekt Vertrauen in das staatliche und rechtliche System schaffen könnte. Er fügt hinzu, dass, wenn persönliches Vertrauen das gewählte Regulierungsziel ist, die Gesetzgebung keine geeignete Regulierungstechnik ist, um Vertrauen aufzubauen. Stattdessen sollten weniger kontrollierende Regulierungstechniken eingesetzt werden, z. B. Programme zur freiwilligen Regulierung. In der Tat sind Standards, Best Practices oder Gütesiegel, die von privaten Verbänden festgelegt werden, nicht verpflichtend, und wenn sich ein Unternehmen freiwillig für die Einhaltung von Standards entscheidet, öffnet es damit die Tür für ein mögliches Vertrauen in sein Verhalten.

Daniel Hult (2018) stimmt daher mit den letzten beiden von Hilary Sutcliffe und Sam Brown genannten Faktoren überein. Die Einbindung der Bürger in den Regulierungsprozess ist sicherlich eine weniger kontrollierende Regulierungstechnik. Regeln, insbesondere verbindliche, schliessen die Notwendigkeit von Vertrauen aus.

Wir unterstützen dies: Selbst wenn der Gesetzgeber mit Regeln Vertrauen aufbauen wollte, wäre das Zeitverschwendung.

Dem Trust Hype vertrauen?

Dies hat jedoch nichts mit dem psychologischen Vertrauen in KI als Haltung des Menschen zu tun, was dieser neue Trend in der Regulierung zu erreichen versucht. Ausserdem wollen wir noch betonen, dass zu viele den wichtigen Unterschied zwischen Vertrauen in KI und Vertrauenswürdigkeit von KI vernachlässigen.

Die Europäische Kommission hat bereits in den Ethik-Leitlinien für vertrauenswürdige KI umfassend und sehr klar definiert, welche Aspekte für die Schaffung von vertrauenswürdiger KI notwendig sind (siehe Referenzen). Laut dieser Richtlinie hat vertrauenswürdige KI drei Komponenten, die während des gesamten Lebenszyklus des Systems erfüllt sein sollten:

  1. Sie sollte rechtmässig sein und alle geltenden Gesetze und Vorschriften einhalten;
  2. Sie sollte ethisch sein und die Einhaltung ethischer Grundsätze und Werte gewährleisten; und
  3. Es sollte robust sein, sowohl aus technischer als auch aus sozialer Sicht, da KI-Systeme auch bei guten Absichten unbeabsichtigt Schaden anrichten können.

Der Leitfaden legt einen Rahmen für das Erreichen einer vertrauenswürdigen KI fest, indem er Anforderungen auflistet, die KI-Systeme erfüllen sollten, und eine konkrete Bewertungsliste zur Operationalisierung dieser Anforderungen bereitstellt, aber nicht ausdrücklich auf die Komponente der rechtmässigen KI eingeht.

Diese Komponente wird durch den Europäischen KI-Verordnungsvorschlag (siehe Referenzen) definiert, der die Anforderungen an KI festlegt, um rechtmässig zu sein. Der Vorschlag definiert insbesondere gemeinsame verbindliche Anforderungen an den Entwurf und die Entwicklung bestimmter KI-Systeme, bevor sie auf den Markt gebracht werden, die durch harmonisierte technische Normen weiter operationalisiert werden. Der Vorschlag befasst sich auch mit der Situation nach dem Inverkehrbringen von KI-Systemen, indem er die Art und Weise harmonisiert, in der ex-post-Kontrollen durchgeführt werden.

Auf der anderen Seite besteht die Strategieempfehlung der Schweiz im Moment hauptsächlich darin, die bestehende Gesetzgebung anzupassen (Christen et al., 2020) und sich mit den europäischen KI-Definitionen abzustimmen. Zwar hat die EU einen Vorschlag für eine KI-Regulierung definiert, doch darf nicht vergessen werden, dass wir uns nicht in einem gesetzgeberischen Vakuum befinden. Bestehende Gesetze sehen bereits Regeln für KI-Anwendungen vor. Einige Definitionen, die ausschliesslich auf den Menschen ausgerichtet sind, müssen jedoch aktualisiert werden, um maschinengenerierte Handlungen einzubeziehen. Ein Beispiel wäre die Anpassung des Bundesprodukthaftungsgesetzes an diese Technologie.

Die EU ist mit gutem Beispiel vorangegangen und hat wichtige Elemente festgelegt, die die Schweiz bei der Aktualisierung ihres Datenschutzgesetzes sorgfältig prüfen wird. Es wird nun zu prüfen sein, wie der EU-Vorschlag für eine KI-Verordnung und die revidierten Schweizer Gesetze nach ihrem Inkrafttreten angewandt werden und – was noch wichtiger ist – wie sie im Laufe der Zeit angewendet werden. Wir glauben, dass die Herausforderung darin bestehen wird, die ersten Schritte festzulegen und die Umsetzung zu koordinieren. Es ist wichtig, dass nicht nur die Regulierungsbehörde, sondern auch alle betroffenen Interessengruppen und Akteure, wie z.B. die Justiz, mit dieser Technologie vertraut sind.

Fazit

Kurz gesagt, dass Vertrauen in KI nur auf vertrauenswürdige KI folgen kann, ist eine ideale, lineare und leider unrealistische Beziehung. Es ist eher eine Mission oder Vision, nicht mehr und nicht weniger. Sollen wir KI vertrauen oder ist diese KI vertrauenswürdig, sind in der Tat sehr nuancierte, aber unterschiedliche Fragen. Vielleicht sind wir heute besser dran mit einem Zero-Trust-Ansatz, bis ein Unternehmen oder ein Entwickler in der Lage ist, seine Vertrauenswürdigkeit zu beweisen, um das Vertrauen des Nutzers zu gewinnen.

Wir glauben, dass der grundlegende Zweck eines Gesetzes immer noch darin besteht, Standards festzulegen, die Ordnung aufrechtzuerhalten, Streitigkeiten zu schlichten und Freiheiten und Rechte zu schützen, und nicht darin, persönliches Vertrauen zu schaffen, und auch nicht das Vertrauen in KI an sich. Mit einem robusten Rechts- und Justizsystem in KI-Angelegenheiten, kann sich mit der Zeit als positiver Nebeneffekt ein schwammiges Gefühl des Vertrauens in KI einstellen.

Eine Vertrauenskultur würde aber sicher nicht schaden. Wenn die Menschen sich tatsächlich blind auf KI-Systeme verlassen könnten, wäre das nicht grossartig? Zu wissen, wie und dass sie zuverlässig funktionieren, mit guten Absichten der Entwickler, dass sie sicher sind, persönliche Daten gut behandeln, und so weiter? Aber diese Zeit ist sicher noch nicht gekommen, und wir fragen uns, ob und wann dieser Tag jemals kommen wird. Mit der Zeit werden die Menschen jedoch besser verstehen, worum es bei der KI geht (oder worum es nicht geht), und bis dahin wird die Gesetzgebung die Schwachen schützen (die nicht in der Lage sind, zu verstehen oder sich zu wehren) sowie die blinden (-vertrauenden) Tech-Optimisten, damit sie nicht getäuscht werden und jemand zur Verantwortung gezogen werden kann, wenn etwas schief läuft.

Autorschaft

Dieser Artikel wurde von Prisca Quadroni-Renella verfasst, Schweizer Anwältin und Gründungspartnerin der AI Legal & Strategy Consulting AG und Legal Lead für Women in AI in Zusammenarbeit mit Marisa Tschopp.

Referenzen

Links

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!

×
Diversify AI

Diversify AI

Marisa Tschopp

Anthropomorphismus

Anthropomorphismus

Marisa Tschopp

KI und Führung

KI und Führung

Marisa Tschopp

Vertrauen und KI

Vertrauen und KI

Marisa Tschopp

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv