Künstliche Intelligenz - Ist es das Risiko wert?

Künstliche Intelligenz

Ist es das Risiko wert?

Marisa Tschopp
von Marisa Tschopp
am 18. Juli 2019
Lesezeit: 24 Minuten

Keypoints

Ist Künstliche Intelligenz das Risiko wert

  • Der Titanium Trust Report ist eine Mixed-Methods Analyse mit 111 Teilnehmern mit unterschiedlichem Hintergrund und Fachwissen zur Untersuchung von Vertrauen und künstlicher Intelligenz
  • Der qualitative Teil befasst sich mit Angst und Skepsis gegenüber künstlicher Intelligenz
  • Es wurden 14 Unterkategorien identifiziert, z. B. Angst vor Robotern oder KI im Gesundheitswesen
  • KI in der Kriegsführung, Kontrollverlust sowie Privatsphäre und Sicherheit sind die meistgenannten Kategorien
  • Trotz der Gefahren ist die Mehrheit der Teilnehmer der Meinung, dass KI das Risiko wert ist
  • Zu den Auswirkungen gehören Aufklärung und Sensibilisierung auf individueller Ebene, Richtlinien auf Makroebene und der Schwerpunkt auf Sicherheit und Performance auf technischer Ebene

Es wird oft gesagt, dass Künstliche Intelligenz (KI) praktisch jeden Sektor von der Medizin zur Stadtplanung positiv transformiert. Aber auch fragwürdige oder sogar gefährliche Folgen mit sich bringt, wie gefälschte Nachrichten und Videos, Überwachungsstaat und Verlust der Privatsphäre. Technische Probleme wie mangelnde Vorhersehbarkeit und Erklärbarkeit, sowie Hype und Fehlinterpretationen in den Medien und darüber hinaus Meinungsverschiedenheiten innerhalb von Definitionen und Anwendungen, führen zu Skepsis und Misstrauen. Im Kontext KI gibt es eine wichtige zugrunde liegende Annahme: No trust, no use. Da KI vielversprechend ist, sind Experten und KI-Enthusiasten besonders daran interessiert, wie Vertrauen in KI aufgebaut werden kann, um die Akzeptanz oder Nutzung zu fördern.

Vertrauen kann als psychologischer Mechanismus zur Bewältigung von Unsicherheit gesehen werden und liegt irgendwo zwischen dem Bekannten und dem Unbekannten (Botsman, 2017). Vertrauen ist auf individueller Ebene tief in unserer Persönlichkeit verwurzelt. Wir werden im Grunde genommen mit der Tendenz geboren, Menschen (oder Tieren und anderen Dingen) zu vertrauen oder ihnen zu misstrauen. Menschen (und wohl auch Tiere) können in einem Augenblick erkennen, ob sie einer Person vertrauen oder nicht. Man betrachtet den Gesichtsausdruck, die Körperhaltung oder den Kontext (Hintergrund, Umgebung usw.). Es wird mit Erinnerungen oder vergangenen Erfahrungen in Sekundenbruchteilen verglichen, wie z.B. ich vertraue ihr, sie erinnert mich an meine Grossmutter.

Vertrauen Sie Nancy Hazle? Bildquelle: Encylopedia of Alabama

Nehmen Sie zum Beispiel dieses Bild dieser älteren Frau mit Brille (auf der linken Seite). Vertrauen Sie ihr? Bitte bewerten Sie auf einer Skala von 1 (überhaupt nicht) bis 5 (total).

Generell neigen wir dazu Menschen mehr zu vertrauen, die uns selbst ähneln (Zimbardo & Gerrig 2008). Ein Grund ist, dass es einfacher ist, zukünftiges Verhalten oder Reaktionen ähnlicher Personen vorherzusagen, was das emotionale Verletzungsrisiko senkt. Was wir nicht wissen ist, wie genau unsere Intuition funktioniert. Haben Sie dieser Frau oben vertraut? Vielleicht ja, weil sie lächelt und von Kindern umgeben ist. Vielleicht nein, denn Sie erwarten hier bereits einen Trick, da ich (die Autorin dieses Artikels) Psychologin bin. Wenn Sie 1 angekreuzt haben, war Ihre Intuition richtig. Diese Frau ist nicht sehr vertrauenswürdig. Sie starb vor einigen Jahren im Gefängnis als eine der berühmtesten weiblichen Serienmörderinnen.

Diese erste Vorstellung des Vertrauens ist ein faszinierendes und doch ziemlich mystisches Gebiet, vergleichbar mit dem menschlichen Bewusstsein: Sie wissen, dass es dort ist, Sie können es erleben, aber es gibt keine empirischen Beweise dafür. Vertrauen ist jedoch ein vielschichtiger Begriff und umfasst nicht nur diesen ersten Teil der Vertrauensbildung. Im Beitrag Über Vertrauen und KI wird eine detaillierte Übersicht geliefert, wie ein systemischer Zugang zum Thema Vertrauen im Kontext KI gewählt werden kann. Es umfasst Vertrauen als charakteristisches Merkmal eines Menschen, Vertrauen als Prozess zwischen zwei oder mehr Personen (Vertrauensverhältnis) und die Betrachtung des Vertrauensprozesses auf einer Zeitachse (Kontext und Faktoren von der anfänglichen Vertrauensbildung bis zum Vertrauensbruch). Kurz gesagt, Fragen und Definitionen können sich auf eine Person, eine Beziehung, eine Situation und/oder einen Prozess beziehen.

Vertrauen ist für den Wohlstand und das Wohlergehen von Gesellschaften unverzichtbar. Seit Jahrtausenden haben wir Mechanismen zur Vertrauensbildung entwickelt, um Interaktionen zu erleichtern. Da sie jedoch zunehmend digitalisiert werden, funktionieren viele traditionelle Mechanismen nicht mehr richtig, sodass das Vertrauen zusammenbricht. Infolgedessen halten uns niedrige Vertrauensniveaus davon ab, neue Formen der Interaktion zu entwickeln und schränken Geschäftschancen ein. (Track AI & Trust, from the conference at EPFL, Lausanne AMLD 2019)

Im KI-Kontext gibt es verschiedene Gründe, warum Vertrauen zu einem sehr beliebten Thema in Forschung und Praxis geworden ist. Es mangelt an einer klaren Definition der Prozesse, der Leistung und insbesondere des Zwecks der KI in Bezug auf die Absichten ihres Anbieters. Wenn KI jedoch grosse Chancen bietet, scheint Vertrauen der entscheidende Faktor zu sein, ob wir ihr volles Potenzial ausschöpfen können oder nicht.

Titanium Trust Report: Was braucht es, um KI zu vertrauen?

Die Forschung (Wissenschaft, Unternehmen und Militär) um die Rolle des Vertrauens zu untersuchen, befindet sich auf einem Hoch. Das Militär ist einer der grossen Beschleuniger, da Automatisierung und Roboter bereits Teil ihres täglichen Lebens sind, da dies lebensrettende Möglichkeiten bietet: Diese haben die Potenzial zur Rettung des Menschen vor langweiliger, gefährlicher und schmutziger Arbeit (Hancock, 2011; Yagoda & Gillan, 2012). Vertrauen scheint die unabdingbare Voraussetzung zu sein, wie in dem von Peter Hancock geprägten Begriff: No trust, no use. Kein Vertrauen, kein Gebrauch. Der Titanium Trust Report ist eine mixed-methods Analyse, die sich auf drei Fragestellungen fokussiert:

  1. Die Beziehung von Vertrauen und Anwendung
  2. Intrapersonale Unterschiede in Vertrauensniveaus
  3. Veränderung in der Vertrauen-Anwendungsbeziehung in Situationen mit hohem versus geringem Risiko

Der qualitative Teil untersucht weiter, welche Ängste hinter dem Vertrauen stehen, sowie das Risikobewusstsein und die Rolle des Kontexts. Das folgende Bild gibt einen Überblick über die in der Studie einbezogenen Variablen (basierend auf Hengtler et al., 2016; Botsman, 2017 und Hancock et al., 2011):

Einflussvariablen Vertrauen und Künstliche Intelligenz

Die Ergebnisse der Studie werden “schrittweise veröffentlicht”?research, beginnend mit dem qualitativen Teil. Dieser vorliegende Beitrag konzentriert sich auf die Frage: Gegenüber welchen Bereichen oder Anwendungen der KI sind Sie besonders skeptisch?

KI: Worüber sind Sie am skeptischsten?

Teilnehmer

Die Daten wurden von März bis Juni 2019 erhoben und 111 Teilnehmer nahmen an der Online-Umfrage teil. Die Stichprobenstrategie zielt darauf ab, die Meinungen und Einstellungen der allgemeinen Öffentlichkeit darzustellen. Die Teilnehmer kommen aus aller Welt mit unterschiedlichen beruflichen Hintergründen und unterschiedlichem Wissen über künstliche Intelligenz. Die Geschlechtervielfalt ist recht ausgewogen, es nahmen mehr Frauen als Männer teil. Die meisten Teilnehmer haben einen Bachelor-Abschluss oder höher.

Methode

Die Teilnehmer erhielten kurze Beschreibungen der beiden Begriffe künstliche Intelligenz (basierend auf Russel & Norvig, 2012, Stone at al, 2016) und Vertrauen (basierend auf Botsman, 2017). Die Umfrage ist in drei Teile gegliedert:

  1. Assoziationstest (qualitativ)
  2. Vertrauen und KI (qualitativ und quantitative)
  3. Persönlichkeitsfaktoren (Mini IPIP Scale, Fünf Faktoren Modell nach Donnellan et al, 2006) und demographische Variablen (quantitative und qualitative Teile für weitergehendes Feedback)

Antworten auf die offene Frage Gibt es bestimmte Anwendungen oder Einsatzbereiche von KI, denen Sie am skeptischsten gegenüberstehen? wurden von einem Codierer (dem Autor) codiert. Es wurden 14 Unterkategorien abgeleitet, die dann in drei Hauptkategorien gegliedert wurden. Eine Kategorie blieb für nicht interpretierbare Daten wie etwas oder sorry, nicht qualifiziert zu antworten unkategorisiert, sowie eine Kategorie mit drei Antworten, welche keine Skepsis gegenüber KI ausdrückten. Die Kategorien wurden anhand der gegebenen Antworten induktiv abgeleitet (Verfahren nach Mayring 2010). Unterscheidung und Beschreibung der Kategorien wurden mit zwei Kollegen besprochen, Experten für Informationssicherheit, die nicht in qualitativer Forschung geschult sind.

Kategoriensystem

Die folgenden Tabellen zeigen das aus den qualitativen Daten abgeleitete Kategoriesystem. Die erste Hauptkategorie ist Einfluss auf Gesellschaft und Politik, was einer Perspektive auf Makroebene zugeschrieben werden kann. Die zweite Kategorie enthält technologische Faktoren, die sich auf die wahrgenommenen Eigenschaften von Hard- und Software konzentrieren. Auf der Mikroebene können Faktoren im Zusammenhang mit den Auswirkungen auf das menschliche Leben und Verhalten (Konzentration auf das Individuum) gefunden werden.

Kategorie I: Gesellschaft und Politik

Kategorie Beschreibung
Überwachung Skeptisch gegenüber der Verwendung von Daten, Tools und Anwendungen zur Überwachung von Personen und Verhaltensweisen
Security & Privacy Skeptisch gegenüber dem Verlust der Privatsphäre aufgrund unzureichender Sicherheit
Recht Skeptisch gegenüber dem Einsatz von KI in Justiz und Recht
Ethik & Governance Skeptisch, ob die KI die richtige (ethische) Entscheidung trifft
Krieg Skeptisch gegenüber dem Einsatz von KI in der Kriegsführung, insbesondere bei Waffen

Kategorie II: Wahrnehmung von Technologie: Hard- & Software

Kategorie Beschreibung
Roboter Skeptisch gegenüber KI in Robotern, inkl. Angst vor Robotern
Heim & IoT Skeptisch gegenüber KI in Devices im Alltag
Autos Skeptisch gegenüber dem Gebrauch von KI im Transportwesen, besonders autonomes Fahren
Entwickler & Firmen Skeptisch gegenüber den Entwicklern und jeweiligen Firmen, die KI entwickeln
Verständnis & Performance Skeptisch gegenüber der tatsächlichen Performance der KI und wie sie in der Öffentlichkeit verstanden wird

Kategorie III: Einfluss auf Leben und Verhalten der Menschen

Kategorie Beschreibung
Gesundheitswesen Skeptisch gegenüber KI im Gesundheitswesen und Medizin
Wirtschaft & Business Skeptisch gegenüber den Einfluss von KI auf das alltägliche Geschäftsleben und der Gesamtwirtschaft
Kontrollverlust Angst, die Kontrolle über die KI zu verlieren, einschliesslich der Entstehung von AGI (Artificial General Intelligence)

Kategory IV: Sonstiges

Kategorie Beschreibung
Nicht kategorisiert Unkategorisiert, nicht interpretierbar
Keine Nicht skeptisch gegenüber KI

Ergebnisse

Die Antworten waren oft sehr kurz und enthielten nur zwei bis drei Wörter. Zum Beispiel in der Kategorie Krieg haben einige angegeben Militärischer Gebrauch macht mich skeptisch. Politischer Gebrauch beunruhigt mich auch, wohingegen andere nur autonome Waffen oder Militär geschrieben haben. Die hohe Teilnehmerzahl ermöglicht einen Hinweis auf die Potenz und Gewichtung einer Kategorie und erlaubt zu vergleichen, ohne statistische Aussagen treffen zu können.

Skepsis gegenüber Künstlicher Intelligenz

Krieg wurde sehr deutlich am häufigsten genannt als ein Anwendungsbereich, demgegenüber die Teilnehmer der Studie sehr skeptisch sind, insbesondere der Begriff autonome Waffen. Dabei wird sowohl das Szenario von unkontrollierbaren Tötungsmaschinen genannt, wie auch die Angst vor Fehlern mit fatalen Folgen durch mangelhafte technische Performance.

Das Militär ist eine sehr riskante Anwendung, da logische Entscheidungen ohne menschliche Grenzen oder die Fehlklassifizierung von Zielen enorme und unwiderrufliche Konsequenzen haben. (Teilnehmer Titanium Trust Report 2019)

Kontrollverlust ist die zweitgrösste Sorge. Diese Kategorie enthält weder ein bestimmtes Anwendungsgebiet wie das oben genannte in der Kriegsführung, noch einen detaillierten Schwerpunkt wie Datenschutz (Verlust des Dateneigentums oder ähnliches). Diese Kategorie konzentriert sich auf die allgemeine Notwendigkeit, die Kontrolle über Entscheidungsprozesse in jedem Bereich zu behalten. Es handelt sich eher um Assoziationen mit künstlicher Intelligenz und um eine allgemeine Einstellung zu KI und Technologie.

Das Risiko, dass KI-Tools (z. B. Roboter) ihren eigenen “Verstand” entwickeln, was bereits bei Google passiert ist. (Teilnehmer Titanium Trust Report 2019)

Diese Aussagen sind meist hypothetische Was-wäre-wenn? Szenarien, anstatt auf tatsächlichen Erfahrungen zu basieren, wie diese unten. Dabei geht es nicht um vom Entwickler gewünschte Anwendungsbereiche (wie Autonome Waffen oder den Gebrauch von Daten für personalisierte Werbung z.B.), sondern vor allem um Folgen, welche unbeabsichtigt gewesen wären.

Zu grosse Abhängigkeit von Technologie, die eine Katastrophe sein kann (denken Sie an vollautomatisierte Häuser, ein Freund von mir wurde kürzlich bei einem Stromausfall in sein Haus gesperrt). (Teilnehmer Titanium Trust Report 2019)

Privacy und Security integrieren Geräte sowie eine politische Haltung, die das Bedürfnis nach Datenschutz aufgrund unzureichender Sicherheitsmassnahmen der Anbieter, absichtlich oder unabsichtlich, irgendwie gefährden. Hier spielt gerade der Debatte um den gläsernen Mensch eine Rolle und die Angst vor Manipulation und Ausnutzung aus wirtschaftlichen oder politischen Gründen.

Das Unangenehmste ist der uneingeschränkte Zugang zu Umweltinformationen. Beispielsweise kann der mobile KI-Assistent die Sprachinformationen erkennen, analysieren und wahrscheinlich speichern. Oder es geht das Gerücht um, dass in China hergestellte Staubsaugroboter in der Lage sind, Daten von zu Hause aus zu stehlen. Diese bidirektionale Interaktion zwischen Umgebung und Maschine ist faszinierend, lässt uns aber auch ungeschützt. (Teilnehmer Titanium Trust Report 2019)

Diese Kategorie wurde von den Teilnehmern detaillierter ausgearbeitet als in anderen Kategorien, in denen nur zwei oder drei Wörter verwendet wurden.

KI in ihrer Gesamtheit macht uns angreifbar – einfach wegen der Methoden, die zum Datenschutz verwendet werden. Daten gehören nicht mehr dir und können dich entlasten (z. B. das Leben erleichtern) oder zerstören (du hast einen identifizierten genetischen Defekt und niemand wird dich oder deine Familie versichern). (Teilnehmer Titanium Trust Report 2019)

Weitere wichtige Ergebnisse sind, dass nur zwei von 111 Personen die Angst vor Arbeitsplatzverlust oder -ersatz erwähnt haben (Kategorie Wirtschaft und Business). Überwachung und autonomes Fahren wurden so oft ausdrücklich erwähnt, dass eine eigene Kategorie abgeleitet wurde, anstatt sie dem Verlust der Kontrolle oder der Sicherheit zuzuweisen. Darüber hinaus ist auffällig, dass die Aussagen in der Kategorie Verständnis & Performance besonders elaboriert wurden.

Ich bin skeptisch gegenüber der Interpretation von KI durch Durchschnittspersonen. Ich bin Mathematiker – ich kann die Algorithmen und Fehleranalysen für die Methoden zur Implementierung von KI leicht verstehen. Ich sehe es als ein Werkzeug, das uns dabei hilft, Dinge zu trennen und zu programmieren, und nicht als eine amorphe Einheit, die Gedanken lesen kann. Aber diese technischen Details sind für Nichtfachleute schwer zu verstehen und führen zu viel falschem Hype oder falschen Interpretationen in den Medien.(Teilnehmer Titanium Trust Report 2019)

Diskussion

Die Frage, gegenüber was die Teilnehmer am skeptischsten sind, liefert einige interessante Ergebnisse, die nicht absolut sind, sondern Indikatoren für weitere Forschung und worauf sich auch die Praxis konzentrieren kann. Aus den Daten geht klar hervor, dass nach wie vor grosse Skepsis besteht, insbesondere in Bezug auf Datenschutz und Eigentumsverhältnisse. Sowie in Situationen mit hohem Risiko, in denen Menschenleben gefährdet sind, wie z. B. bei der Kriegsführung und beim autonomen Fahren. Die meisten dieser Befürchtungen scheinen jedoch eher hypothetisch zu sein und beruhen nicht auf Fakten oder Kenntnissen, was einerseits selbstverständlich ist. Andererseits kann man etwas fürchten, ohne konkret zu wissen oder zu verstehen, was es ist oder ob es eine berechtigte Angst ist. Zum Beispiel hat ein Kind Angst vor Monstern. Die Angst ist real, auch wenn die Monster es nicht sind. Wie hört ein Kind auf, Monster zu fürchten? Es gibt verschiedene Möglichkeiten, dies zu tun: Bildung ist eine, wie das Erlernen, dass Monster nicht existieren, basierend auf Beweisen, an die sie glauben. Ein wichtiger Punkt, ist, dass das Kind unter seinen Ängsten leidet. Die in dieser Umfrage zum Ausdruck gebrachten Befürchtungen sind eher zukunftsgerichtet, nur wenige beruhen auf tatsächlichen Erfahrungen und aktuellem Leid. Dies bedeutet nicht zwangsläufig, dass die Daten unbrauchbar sind. Tatsächlich ist das Gegenteil der Fall. Sie drücken die Bedürfnisse und Werte der Teilnehmer aus. Diese zu erkennen ist elementar, um auf strategischer Ebene zu diskutieren, wie ein Problem gelöst werden kann, oder in dem Fall, um Vertrauen zu schaffen. Um es auf den Punkt zu bringen, sind den Teilnehmern folgende Bedürfnisse besonders wichtig:

  1. Physische Sicherheit: Insbesondere in Bezug auf Waffen, Autos und Gesundheitswesen
  2. Partnerschaft: Eigentum und Integrität in Bezug auf die Verwendung und Respekt ihrer persönlichen Daten
  3. Selbstverantwortung und Mitsprache: Einsicht und Teilnahme an der Einführung und Anwendung von KI

Es ist nicht KI, der ich skeptisch gegenüber bin. Es ist derjenige, der es entwirft und wie es hinter den Kulissen eingesetzt wird, was eine genaue Prüfung und Sorgfalt verdient. (Teilnehmer Titanium Trust Report 2019)

Darüber hinaus haben die Teilnehmer erwähnt, dass es nicht um die Technologie geht, sondern um die Menschen, die hinter der Technologie stehen. Sind sie vertrauenswürdig, fähig oder sorgfältig genug? In anderen Teilen des Titanium Trust Reports spiegelt sich dies auch in der Frage wider, ob sie Unternehmen oder den Programmierern vertrauen, die die KI entwickeln. In einem anderen Punkt haben wir gefragt, wer der bevorzugte Partner für die Entwicklung einer KI ist, was auch eine gewisse Zurückhaltung gegenüber den grossen Tech-Unternehmen widerspiegelt: Nur 20% gaben an, dass sie sich für einen der grossen Tech-Riesen, wie Google oder Microsoft, für die Entwicklung einer KI-Anwendung entscheiden würden. Eine beeindruckende Mehrheit würde es vorziehen, wenn eine Hochschule oder eine gemeinnützige Organisation eine KI entwickelt.

Ich bin auch skeptisch gegenüber Unternehmen, die AI für ihr Geschäft einsetzen oder entwickeln möchten. Sie übertreiben oft die Fähigkeiten der KI, um Geld zu verdienen, was wiederum auf die Medien und die falschen Vorstellungen der Durchschnittsperson zurückgeht. (Teilnehmer Titanium Trust Report 2019)

Um es auf den Punkt zu bringen, fürchten die Teilnehmer:

  1. Ungerechte Machtverteilung
  2. Manipulation der Öffentlichkeit
  3. Körperlicher Schaden durch KI-Entscheidungen
  4. Unsicherheit durch Kontrollverlust (oder Kontrolldelegation) und mangelndes Wissen

Limitationen und Implikationen für weitere Forschung

111 Teilnehmer sind eine ziemlich hohe Zahl für die Einbeziehung qualitativer Methoden. Da die Antworten oft kurz waren, war eine nützliche Analyse möglich. Die Wahl eines qualitativen Ansatzes war eine nützliche Entscheidung, da die Studie darauf abzielt Bereiche zu identifizieren, die nicht offensichtlich waren oder die weiterer Forschung bedürfen. Es war ziemlich überraschend, dass Waffen oder KI in der Kriegsführung einen so grossen Einfluss haben, da dies ein exotischer Bereich der Forschung und Praxis ist und nicht sehr öffentlich. Ein Grund für dieses Bewusstsein könnte in der Erstellung der Umfrage liegen. In der Umfrage wurde die Dual-Use-Forschung explizit erwähnt und den Teilnehmern erklärt, dass der Einsatz von KI in der Kriegsführung ein problematisches Thema ist. Dies kann das Ergebnis verzerrt haben.

Obwohl die Teilnehmer in Bezug auf ihren Hintergrund recht heterogen waren, kann die Tatsache, dass ein Cybersicherheitsunternehmen Initiator ist, die Antworten in Bezug auf die Wirksamkeit der Kategorie Datenschutz und Sicherheit verzerrt haben. Die Tatsache, dass die Ausarbeitung dieser Antworten von grösserer Tiefe ist, deutet darauf hin, dass es sich um ein Expertenthema handelt, das möglicherweise nicht das Wissen und Bewusstsein der breiten Öffentlichkeit repräsentiert.

Die Thematik des Kontrollverlust zieht sich wie ein roter Faden durch fast alle Antworten. Wie diese empirisch getrennt untersucht und betrachtet werden kann und wie sie mit die anderen Kategorien beeinflusst, muss dringend in weiterführenden Studien quantitativ untersucht werden.

Künstliche Intelligenz: Ist es das Risiko wert?

KI - ist es das Risiko wert?

Die Teilnehmer der Umfrage sind sich der Risiken bewusst, die mit der Verwendung und dem Einsatz künstlicher Intelligenz einhergehen. Es scheint legitim zu sein, über die Frage nachzudenken, ob es das Risiko wert ist?

Ja, aber nur, wenn der Unsinn um AI aufhört und die Leute es eher als Werkzeug als als gottähnliche Kraft sehen. (Teilnehmer Titanium Trust Report 2019)

Nur 10% geben an, dass das Risiko zu hoch ist und die Bemühungen zur Weiterentwicklung der KI gestoppt werden sollten. 69% sind überzeugt, dass die Vorteile die Risiken überwiegen. Der interessante Rest ist entweder fatalistisch, weil wir sowieso keine Wahl haben, oder sie deuten darauf hin, dass es Regeln, Vorschriften (bestehend aus Gesetzen und Ethik) sowie Bildung geben muss.

Dies ist sinnvoll, da es unrealistisch ist, KI per se zu boykottieren. Dies ist sowieso nicht die richtige Frage. Es ist nicht so sehr, ob wir es benutzen, sondern wie wir es benutzen. Dies erfordert von Anbieter- und Nutzerseite ständiges Hinterfragen und kritisches Denken, ohne Zynismus. Dies erfordert aus öffentlicher und gesellschaftlicher Sicht einen offenen Diskurs und zum Teil klare Regelungen. Es gibt eine engagierte und wachsende Zahl von Menschen, die sich diesem Bereich widmen, wie die European High-level Expert Group on AI oder die IEEE Global Initiative für Ethik autonomer und intelligenter Systeme. Ein gutes Beispiel für die Einbeziehung und Aufklärung der Öffentlichkeit ist das Wissenschaftsjahr in Deutschland, eine Initiative des Bundesministeriums für Bildung und Forschung. Sie berichten und informieren ein Jahr lang die breite Öffentlichkeit über dieses Thema und konzentrieren sich dabei auf Fakten auf unterhaltsame, erfrischende Art und Weise.

Fazit

Dieser Beitrag hat die Meinungen von 111 Teilnehmern mit heterogenem Hintergrund untersucht, welchen Bereichen oder Anwendungen der Künstlichen Intelligenz sie am skeptischsten gegenüberstehen. Die Antworten wurden ausgewertet und Kategorien induktiv abgeleitet. Basierend auf den qualitativen Daten beinhalten die Bedürfnisse der Teilnehmer physische Sicherheit, Partnerschaft sowie Eigenverantwortung und Mitsprache. Die Anschlussfragen, die sich in einem angewandten Kontext stellen, beziehen sich auf die praktischen Anwendungen: Wie sollen die Ängste angegangen werden? Was kann getan werden, um die Bedürfnisse anderer zu berücksichtigen? Nur wenn diese Fragen offen diskutiert werden, können zukünftige Generationen die KI als Instrument (Mittel zum Zweck) nutzen und ihr volles Potenzial ausschöpfen. Darüber hinaus ist es möglicherweise erforderlich, einen Schritt zurückzutreten und die Annahme der Vertrauens- und Anwendungsbeziehung in Frage zu stellen. Es erscheint logisch, dass Benutzer einer Technologie und ihrem Anbieter vertrauen müssen, um sie zu nutzen. Auf der anderen Seite wird das Vertrauen auf inflationäre Weise verschenkt: Datenschutzrichtlinien werden nicht gelesen und Eltern teilen Bilder ihrer Kinder auf Social-Media-Plattformen aus, die für Datenschutzverletzungen bekannt sind. Welche anderen Kräfte, anstatt oder zusätzlich zu Vertrauen, treiben die Interaktion zwischen Mensch und KI voran?

Über den Titanium Trust Report

Diese Studie möchte Vertrauen und KI aus einer interdisziplinären Perspektive betrachten und sich dabei auf die Grundlagen des Vertrauens und die Vertrauensbeziehung konzentrieren. Es soll auf drei Arten einen Beitrag leisten: Erstens untersuchen wir Theorien und Kenntnisse über Vertrauen und KI in verschiedenen Disziplinen in der Wissenschaft und in der Praxis. Daher zielt diese Studie darauf ab, Kenntnisse in angewandter Psychologie, Mensch-Maschine-Interaktion und Technologiemanagement zu erweitern. Zweitens können unsere Ergebnisse auf verschiedene Weise nützlich sein: Für Entwickler und aus Managementsicht. Für Wissenschaftler in interdisziplinär angelegten Bereichen, um neue Hypothesen zu generieren. Selbstverständlich ist es nützlich für die breite Öffentlichkeit die Gelegenheit zu haben, sich mit diesem kritischen Thema niederschwellig auseinanderzusetzen, indem sie an dieser Studie teilnehmen. Diese Forschung wird durchgeführt, um wichtige Fragen und Antworten zur Bedeutung von Vertrauen im Kontext von KI aufzuwerfen. Ziel ist der interdisziplinäre Austausch und das Gespräch mit der Öffentlichkeit.

Literatur

Über die Autorin

Marisa Tschopp

Marisa Tschopp hat ihren Master in Wirtschaftspsychologie an der Ludwig-Maximilians-Universität in München absolviert. Sie ist aktiv in der Forschung zu Künstlicher Intelligenz aus Humanperspektive, wobei sie sich auf psychologische und ethische Aspekte fokussiert. Sie hat unter anderem schon Vorträge an TEDx Events gehalten und vertritt zudem die Schweiz als Ambassador in der Women in AI (WAI) Initiative. (ORCID 0000-0001-5221-5327)

Links

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!

×
Vertrauen und KI

Vertrauen und KI

Marisa Tschopp

Sprechen statt Tippen

Sprechen statt Tippen

Marisa Tschopp

Voice User Interfaces

Voice User Interfaces

Marisa Tschopp

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv