Ist das Kunst? Persönliche Reflexionen über meine KI-Kunstwerke
Marisa Tschopp
Beziehung zwischen Vertrauen und Recht ist kontraintuitiv und paradox
Dies ist aus der Sicht des Schweizer Rechts etwas überraschend. Denn im Schweizer Recht wird Vertrauen (Deutsch: Vertrauen / Italienisch: Fiducia / Französisch: Confiance) weder im Schweizerischen Zivilgesetzbuch noch im Obligationenrecht noch im Bundesgesetz über die Produkthaftung erwähnt, die grundlegende Rechtsgrundlagen darstellen. Dieser Trend zeichnet sich jedoch auch in der Schweiz ab: Das zweite zentrale Ziel der Strategie Digitale Schweiz ist die Gewährleistung von Sicherheit, Vertrauen und Transparenz. Vertrauen scheint also ein wichtiger Aspekt in Bezug auf KI zu werden, und das Governance-System (d.h. Strukturen und Prozesse, die Rechenschaftspflicht, Transparenz, Rechtsstaatlichkeit und breite Partizipation sicherstellen sollen) selbst sowie die Regulierungsbehörden, die es anwenden, scheinen das Vertrauen der Öffentlichkeit gewinnen zu müssen (Sutcliffe & Brown, 2021). Aber worüber genau sprechen wir, wenn wir von Vertrauen sprechen?
Die extensive Verwendung des Vertrauenskonstrukts im regulatorischen Kontext wird auch von Kritik begleitet. Das Thema Vertrauen kann je nach Blickwinkel sehr unterschiedlich betrachtet werden. Einige, wie Joanna Bryson, argumentieren, dass KI nichts ist, dem man vertrauen kann, da KI-Systeme niemals als verantwortlich dargestellt werden sollten.
Andere bezweifeln, dass die Nutzer dem Produkt oder System tatsächlich vertrauen können, da es nur der Stellvertreter des Designers oder Entwicklers ist, der das Produkt entworfen hat. Darüber hinaus ist umstritten, wer tatsächlich als vertrauenswürdig wahrgenommen werden kann oder nicht, was sich auf die Vertrauenswürdigkeit, die Eigenschaft des Vertrauensempfängers, bezieht. Dies könnte Integrität für Menschen oder Leistung für Maschinen sein. In einem einflussreichen Bericht über Vertrauen von Hoff & Bashir heisst es, dass das Vertrauen zwischen Mensch und Maschine als eine besondere Form des zwischenmenschlichen Vertrauens betrachtet werden kann, bei dem der Vertrauensnehmer (d. h. der vertrauenswürdige Akteur) einen Schritt vom Vertrauensgeber entfernt ist. Es gibt jedoch auch Argumente, die für eine direkte Vertrauensbeziehung zwischen Mensch und Technik sprechen. Im Zusammenhang mit automatisierten Fahrzeugen kann es zum Beispiel tatsächlich so sein, dass der eingesetzten Automatisierung in bestimmten Situationen vertraut wird. Das Thema Vertrauen ist in der Tat kompliziert, und man kann keine der beiden Seiten vernachlässigen. Beide Ansichten haben gültige Argumente, und egal, woher man kommt, Vertrauen sollte immer mit Vorsicht verwendet werden. Aus der Perspektive der Mensch-KI-Interaktion ist Vertrauen als psychologisches Konstrukt unverzichtbar. In einem regulatorischen Kontext ist Vertrauen jedoch recht problematisch.
In diesem Beitrag versuchen wir – eine Anwältin und eine Psychologin – zunächst zu verstehen, ob und wie Vertrauen regulatorisch aufgebaut werden soll. Zweitens skizzieren wir unsere Auffassung und kommen schliesslich zu dem Schluss, dass Vertrauen im regulatorischen Kontext kein angemessener Begriff ist, aber nützlich, wenn es um die Kommunikation mit der breiten Öffentlichkeit geht.
Laut Hilary Sutcliffe, Direktorin der Trust in Tech Governance-Initiative, und Sam Brown, Director of Consequential, müssen die Regulierungsbehörden für KI (z.B. Regierungen und Normungsgremien) drei Faktoren umsetzen, um als vertrauenswürdig zu gelten und so das Vertrauen der Öffentlichkeit in ihren Ansatz zu gewinnen:
Die drei oben genannten Faktoren beziehen sich auf eine Art Systemvertrauen, d. h. Vertrauen in das Regierungs- und Rechtssystem, und werden in gewisser Weise bereits im Gesetzgebungsverfahren umgesetzt. Unserer Ansicht nach ist das Schlüsselwort die Rechtssicherheit, d.h. zu wissen, was man erwarten kann, insbesondere wie die KI-Regeln von den Richtern angewendet werden. Es muss eine einheitliche und regelmässige Anwendung im Laufe der Zeit geben. Der Bürger muss wissen, was er zu erwarten hat, und er muss wissen, dass sein Fall auf die gleiche Weise behandelt wird und zum gleichen Ergebnis führt wie ein identischer Fall in einem anderen Teil des Landes. Wenn jeder Staat oder Kanton dieselben Fälle effektiv, aber auf unterschiedliche Weise anwendet, wird das Vertrauen in das System verloren gehen.
Wir sind daher nicht der Meinung, dass Regeln, allein durch ihre Existenz, Vertrauen schaffen können.
Nach Ansicht von Daniel Hult, Dozent an der School of Business, Economics and Law der Universität Göteborg, sollte die Regierung auf jeden Fall davon absehen, persönliches Vertrauen durch Gesetze zu schaffen. Seiner Meinung nach besteht ein praktikableres Regulierungsziel darin, Anreize für ein vertrauenswürdiges Verhalten der gesellschaftlichen Akteure zu schaffen (weil sie mehr oder weniger gezwungen sind, auf eine bestimmte Art und Weise zu handeln), was als positiver Nebeneffekt Vertrauen in das staatliche und rechtliche System schaffen könnte. Er fügt hinzu, dass, wenn persönliches Vertrauen das gewählte Regulierungsziel ist, die Gesetzgebung keine geeignete Regulierungstechnik ist, um Vertrauen aufzubauen. Stattdessen sollten weniger kontrollierende Regulierungstechniken eingesetzt werden, z. B. Programme zur freiwilligen Regulierung. In der Tat sind Standards, Best Practices oder Gütesiegel, die von privaten Verbänden festgelegt werden, nicht verpflichtend, und wenn sich ein Unternehmen freiwillig für die Einhaltung von Standards entscheidet, öffnet es damit die Tür für ein mögliches Vertrauen in sein Verhalten.
Daniel Hult (2018) stimmt daher mit den letzten beiden von Hilary Sutcliffe und Sam Brown genannten Faktoren überein. Die Einbindung der Bürger in den Regulierungsprozess ist sicherlich eine weniger kontrollierende Regulierungstechnik. Regeln, insbesondere verbindliche, schliessen die Notwendigkeit von Vertrauen aus.
Wir unterstützen dies: Selbst wenn der Gesetzgeber mit Regeln Vertrauen aufbauen wollte, wäre das Zeitverschwendung.
Dies hat jedoch nichts mit dem psychologischen Vertrauen in KI als Haltung des Menschen zu tun, was dieser neue Trend in der Regulierung zu erreichen versucht. Ausserdem wollen wir noch betonen, dass zu viele den wichtigen Unterschied zwischen Vertrauen in KI und Vertrauenswürdigkeit von KI vernachlässigen.
Die Europäische Kommission hat bereits in den Ethik-Leitlinien für vertrauenswürdige KI umfassend und sehr klar definiert, welche Aspekte für die Schaffung von vertrauenswürdiger KI notwendig sind (siehe Referenzen). Laut dieser Richtlinie hat vertrauenswürdige KI drei Komponenten, die während des gesamten Lebenszyklus des Systems erfüllt sein sollten:
Der Leitfaden legt einen Rahmen für das Erreichen einer vertrauenswürdigen KI fest, indem er Anforderungen auflistet, die KI-Systeme erfüllen sollten, und eine konkrete Bewertungsliste zur Operationalisierung dieser Anforderungen bereitstellt, aber nicht ausdrücklich auf die Komponente der rechtmässigen KI eingeht.
Diese Komponente wird durch den Europäischen KI-Verordnungsvorschlag (siehe Referenzen) definiert, der die Anforderungen an KI festlegt, um rechtmässig zu sein. Der Vorschlag definiert insbesondere gemeinsame verbindliche Anforderungen an den Entwurf und die Entwicklung bestimmter KI-Systeme, bevor sie auf den Markt gebracht werden, die durch harmonisierte technische Normen weiter operationalisiert werden. Der Vorschlag befasst sich auch mit der Situation nach dem Inverkehrbringen von KI-Systemen, indem er die Art und Weise harmonisiert, in der ex-post-Kontrollen durchgeführt werden.
Auf der anderen Seite besteht die Strategieempfehlung der Schweiz im Moment hauptsächlich darin, die bestehende Gesetzgebung anzupassen (Christen et al., 2020) und sich mit den europäischen KI-Definitionen abzustimmen. Zwar hat die EU einen Vorschlag für eine KI-Regulierung definiert, doch darf nicht vergessen werden, dass wir uns nicht in einem gesetzgeberischen Vakuum befinden. Bestehende Gesetze sehen bereits Regeln für KI-Anwendungen vor. Einige Definitionen, die ausschliesslich auf den Menschen ausgerichtet sind, müssen jedoch aktualisiert werden, um maschinengenerierte Handlungen einzubeziehen. Ein Beispiel wäre die Anpassung des Bundesprodukthaftungsgesetzes an diese Technologie.
Die EU ist mit gutem Beispiel vorangegangen und hat wichtige Elemente festgelegt, die die Schweiz bei der Aktualisierung ihres Datenschutzgesetzes sorgfältig prüfen wird. Es wird nun zu prüfen sein, wie der EU-Vorschlag für eine KI-Verordnung und die revidierten Schweizer Gesetze nach ihrem Inkrafttreten angewandt werden und – was noch wichtiger ist – wie sie im Laufe der Zeit angewendet werden. Wir glauben, dass die Herausforderung darin bestehen wird, die ersten Schritte festzulegen und die Umsetzung zu koordinieren. Es ist wichtig, dass nicht nur die Regulierungsbehörde, sondern auch alle betroffenen Interessengruppen und Akteure, wie z.B. die Justiz, mit dieser Technologie vertraut sind.
Kurz gesagt, dass Vertrauen in KI nur auf vertrauenswürdige KI folgen kann, ist eine ideale, lineare und leider unrealistische Beziehung. Es ist eher eine Mission oder Vision, nicht mehr und nicht weniger. Sollen wir KI vertrauen oder ist diese KI vertrauenswürdig, sind in der Tat sehr nuancierte, aber unterschiedliche Fragen. Vielleicht sind wir heute besser dran mit einem Zero-Trust-Ansatz, bis ein Unternehmen oder ein Entwickler in der Lage ist, seine Vertrauenswürdigkeit zu beweisen, um das Vertrauen des Nutzers zu gewinnen.
Wir glauben, dass der grundlegende Zweck eines Gesetzes immer noch darin besteht, Standards festzulegen, die Ordnung aufrechtzuerhalten, Streitigkeiten zu schlichten und Freiheiten und Rechte zu schützen, und nicht darin, persönliches Vertrauen zu schaffen, und auch nicht das Vertrauen in KI an sich. Mit einem robusten Rechts- und Justizsystem in KI-Angelegenheiten, kann sich mit der Zeit als positiver Nebeneffekt ein schwammiges Gefühl des Vertrauens in KI einstellen.
Eine Vertrauenskultur würde aber sicher nicht schaden. Wenn die Menschen sich tatsächlich blind auf KI-Systeme verlassen könnten, wäre das nicht grossartig? Zu wissen, wie und dass sie zuverlässig funktionieren, mit guten Absichten der Entwickler, dass sie sicher sind, persönliche Daten gut behandeln, und so weiter? Aber diese Zeit ist sicher noch nicht gekommen, und wir fragen uns, ob und wann dieser Tag jemals kommen wird. Mit der Zeit werden die Menschen jedoch besser verstehen, worum es bei der KI geht (oder worum es nicht geht), und bis dahin wird die Gesetzgebung die Schwachen schützen (die nicht in der Lage sind, zu verstehen oder sich zu wehren) sowie die blinden (-vertrauenden) Tech-Optimisten, damit sie nicht getäuscht werden und jemand zur Verantwortung gezogen werden kann, wenn etwas schief läuft.
Dieser Artikel wurde von Prisca Quadroni-Renella verfasst, Schweizer Anwältin und Gründungspartnerin der AI Legal & Strategy Consulting AG und Legal Lead für Women in AI in Zusammenarbeit mit Marisa Tschopp.
Unsere Spezialisten kontaktieren Sie gern!
Marisa Tschopp
Marisa Tschopp
Marisa Tschopp
Marisa Tschopp
Unsere Spezialisten kontaktieren Sie gern!