Image, Compliance und Widerstand - Im Kontext KI

Image, Compliance und Widerstand

Im Kontext KI

Marisa Tschopp
von Marisa Tschopp
Lesezeit: 14 Minuten

Keypoints

So kann eine KI den ihr entgegengebrachten Widerstand überwinden

  • KI verursacht motivationale Konflikte in vielen Menschen
  • Die Einstellung zu KI beeinflusst das Konsum- und Userverhalten
  • Durch Persuasion und Compliance kann die Einstellung und das Verhalten beeinflusst werden
  • Reziprozität, Verbindlichkeit, Knappheit und Modellierung sind entscheidende Beeinflussungstechniken
  • Widerstände gegen KI entstehen hauptsächlich durch Irritation und Reaktanz

Was ist Ihre Meinung zu Künstlicher Intelligenz? Die Einstellung eines Menschen gegenüber KI umfasst sowohl kognitive als auch affektive Prozesse und kann mit dem Begriff Image gleichgesetzt werden. Vielleicht sind Sie selbst-fahrenden Autos gegenüber positiv eingestellt, aber bewerten tödliche autonome Waffen als negativ? Wie bewerten Sie das Image von Siri im Gegensatz zu Alexa?

Einstellung stellt eine Kombination aus Motivation und kognitiver Gegenstandsbeurteilung dar und ist von grosser Wichtigkeit, da die Einstellung das Verhalten und die Konstruktion der sozialen Realität beeinflusst (Kroeber-Riel et al., 2009, Zimbardo & Gerrig, 2004). Es gibt unterschiedliche Theorien, wie Menschen versuchen, bewusst oder unbewusst, die Einstellung und das Konsumentenverhalten zu beeinflussen. Im Kontext KI, ist die heutige Gesellschaft umso mehr aufgefordert, als mündiger Konsument zu agieren, der kritisch denken kann, ohne dabei zynisch zu werden, in der Gefahr etwaige Chancen zu verpassen.

Image von Künstlicher Intelligenz

Siri, Alexa, Google Home, und viele weitere Produkte und Programme haben in unseren Alltag Einzug gehalten. Haben Sie sich schon mal genauer Gedanken gemacht, wie Sie eigentlich dazu stehen?

Nutzen Sie die Chance für einen kleinen Selbsttest. Wie sehr stimmen Sie den folgenden Aussagen zu:

Bewertung AI

Angenommen Sie haben bei der Frage 1, ob Siri intelligent ist 3 (trifft weniger zu) angekreuzt. Das Image, das Sie von Siris Intelligenz haben, kann eine Kombination aus drei unterschiedlichen Informationsquellen sein:

Die Frage, die sich vor allem Konsumentenforscher stellen, ist, ob die Einstellung zu einem bestimmten Produkt das Verhalten beeinflusst:

Unter welchen Umständen, sagt eine bestimmte Einstellung zu einem Produkt oder einer Marke ein Verhalten vorher?

Nach Zimbardo & Gerrig ist die Verfügbarkeit ein wichtiges Indiz, welches Verhalten und Einstellung in Verbindung setzt. Mussten Sie länger darüber nachdenken, ob Siri intelligent ist? Dann war Ihre Einstellung nicht leicht verfügbar. Hätten Sie sofort schnell zwischen 7 und 9 angekreuzt, ist ihre Einstellung schneller verfügbar und die Wahrscheinlichkeit der Nutzung würde grösser sein.

In der Allgemeinheit mangelt es eher an den unmittelbaren Erfahrungen mit sprachgesteuerten Assistenten, was eine Einstellung leichter verfügbar machen würde. Ausserdem hätte sich Ihre Antwort vermutlich geändert, wenn die Frage spezifischer gestellt worden wäre: Es spielen unterschiedliche Faktoren mit, je nachdem ob nach der Einstellung zu KI im Allgemeinen, zu Siri, zu Alexa, zur Sprachsteuerung mittels Siri oder zur Verwendung von Siri zum Ausführen eines Telefonanrufs gefragt würde (sehr spezifisch!).

Eine wichtige Rolle spielen auch die Exemplare, die Ihnen in den Sinn kommen, wenn Sie nach Ihrer Einstellung zu KI befragt werden. Denken Sie an Amazon Kaufempfehlungen oder an Programme zur Diagnose von Krebs? An selbst-fahrende Autos oder Killer-Roboter? Diese Beziehungen und Einstellungen basieren auf unterschiedlichen Untermengen an Informationen und sind derzeit auf Grund des grossen Hypes sehr instabil, was eine Vorhersage der Bewertung (Image) und einer darauffolgenden Handlung (Verwendung) sehr schwierig macht.

Image von KI verändern durch Persuasion

Die Einstellung, die Menschen zu bestimmten Dingen haben, ist nicht immer ein Fähnlein im Wind. Sie ist aber auch nicht so stabil, wie viele es gerne hätten. Wir leben in einem Zeitalter von massivem Information Overload, Social Media Konsum und Fake News gepaart mit einer rasanten, schwer überblickbaren Entwicklung von Technologien. Es ist nicht immer einfach und vielleicht auch nicht sinnvoll, sich ein stabiles, rationales Bild von einem schwierigen Thema, wie KI oder Klimawandel, zu machen. Politiker, Firmen, Aktivisten oder Eltern unternehmen zielbewusste Anstrengungen, die Einstellungen anderer zu verändern – es handelt sich dabei um die Kunst der Persuasion.

Die wichtigste Theorie im Kontext der Persuasion ist das Elaboration-Likelihood-Modell. Ein Framework, das aufzeigt, wie wahrscheinlich es ist, dass sich Individuen stark mit einer persuasiven Botschaft auseinandersetzen (Kroeber-Riel et al., 2009, Zimbardo & Gerrig, 2004).

Die Theorie unterscheidet zwei Routen:

Das Modell geht davon aus, dass intensivere Informationsverarbeitung über die zentrale Route zu einer tieferen Einstellungsänderung führt, wobei hier die persönliche Relevanz (Ist KI für mich überhaupt wichtig?) und Fähigkeit (Was weiss ich über KI?) des zu Überzeugenden in Betracht gezogen werden muss.

Betrachten wir den TEDxSanFrancisco Talk von Rachel Thomas mit dem Aufruf: Artificial Intelligence needs all of us (KI braucht uns alle).

Nehmen wir an, Rachel Thomas will beispielsweise einen Soziologen überzeugen, sich an der KI-Diskussion zu beteiligen. Dieser KI-kritische Soziologe möchte mehr erfahren und entscheidet sich diesen Talk anzusehen, er wählt damit die zentrale Route und setzt sich intensiv mit ihrer Argumentation auseinander. Sind die Argumente gut, ist eine Einstellungsänderung sehr wahrscheinlich und relativ resistent gegen künftige Überzeugungsversuche. Sind die Argument schwach, so kommt es zu einem Bumerangeffekt und die kritische, eigene Position wird sogar noch verstärkt!

Eines der grössten Diskrepanzen im Kontext KI ist, dass KI sowohl eine kognitive als auch eine ausgeprägte affektive Komponente umfasst. Eine Art der Einstellung zu KI kann also sowohl kognitiv geprägt sein: Wieviel kostet das Programm? Wie leistungsfähig ist es? Als auch affektiv: Macht das Programm Angst? Beeinträchtigt es die Lebensqualität?

Empirische Studien haben gezeigt, dass Einstellungen auf kognitiver Basis mit Argumenten auf kognitiver Basis auf gleicher Ebene begegnet werden muss. Nur dann können diese überzeugen. Umgekehrt muss Einstellungen mit affektiver Basis, mit affektiven Argumenten begegnet werden. Will eine Firma beispielsweise eine positive Einstellung gegenüber digitalen Sprachassistenten herbeiführen, was wiederum die Wahrscheinlichkeit von Kauf oder Gebrauch des Produkts erhöht, so müsste im Idealfall klar sein, ob die Einstellung der Zielgruppe eher kognitiv oder affektiv geprägt ist.

Es gibt keine allgemeingültige Aussage, wie sich die Einstellung der Bevölkerung zu KI auf dem affektiv-kognitiv Kontinuum bewegt. Eine Hypothese legt nahe, dass die Einstellung von Menschen mit naturwissenschaftlich-technischem Hintergrund auf kognitiven Erfahrungen beruht. Während Menschen mit sozial-künstlerischem Hintergrund eher auf Argumente mit affektiver Basis eingehen. Eine Möglichkeit wäre, das Image, empirisch mit Messverfahren an der gewünschten Zielgruppe zu überprüfen, bevor Kommunikationsmassnahmen implementiert werden.

Ein solcher Image Test kann zum Beispiel in Form des Semantischen Differentials durchgeführt werden (Kroeber-Riel et al., 2009). Diese Methode erlaubt eine Einschätzung auf affektiver Ebene, zum Beispiel auf die Fragen nach Sympathie und Asympathie gegenüber einer Sprachsteuerung im Online-Banking. Möglich ist es auch die Mittelwerte von Produkten miteinander zu vergleichen, z.B. Alexa und Cortana.

Semantische Differentials einer AI

Verhalten durch Compliance beeinflussen

Während bei der Persuasion die langfristige Imageänderung im Vordergrund steht, geht es bei Compliance darum, Änderungen im konkreten Verhalten herbeizuführen. Egal ob es Ihr Arzt ist, dessen medizinischen Rat Sie befolgen, die Charity, für welche Sie spenden sollten, oder der Präsident, für den Sie wählen sollen. Wie bringt man jemanden dazu, Klimawandel ernst zu nehmen und sich konkret für die Umwelt einzusetzen? Wie bringt man jemanden dazu, KI ernst zu nehmen und konkret z.B. ein Verbot von autonomen Waffen zu unterschreiben? Wie bringt man jemanden dazu, sein Passwort 123456 zu ändern oder keine Kinderfotos in sozialen Medien zu posten?

Empirisch untersuchte Techniken, vor allem im Verkauf, welche je nach Kontext adaptiert werden können, sind (Vgl. Zimbardo & Gerrig, 2004):

Im Kontext KI gibt es subtilere als auch offensichtlichere Strategien Compliance herbeizuführen. Zum Beispiel: Werden durch die eher unmerkliche Invasion der digitalen Assistenten wie Siri, Menschen langsam an KI gewöhnt. Der Fuss in der Tür ist damit gesichert, um spätere Widerstände zu reduzieren und KI in ihrer Allgegenwärtigkeit zu akzeptieren.

Vor allem im Marketing-Bereich wird die FOMO-Angst leider allzu sehr als Technik eingesetzt. Alles ist mit KI gewaschen. KI wird zu einer Marke, wer keine KI hat, wird am Markt nicht überleben. Nicht selten wird jenen Überzeugungsversuchen mit Widerstand und Skepsis begegnet.

Widerstand gegen KI

Nicht alle Menschen sind gleich leicht beeinflussbar. Welche Erklärungen dem zu Grunde liegen, ist allerdings empirisch betrachtet unklar. Die wenigen empirischen Untersuchungen sagen aus, dass, Menschen leichter beinflussbar sind:

Auf der anderen Seite sind Menschen mit Typ A Verhalten oder niedrigem Self-Monitoring Verhalten schwerer beeinflussbar. Dabei spielt das Kontrollverhalten eine kritische Rolle, bezogen auf die Entstehung des Widerstands gegen einen Überzeugungsversuch (Kroeber-Riel et al., 2009).

Im Kontext KI sind diese Formen des Widerstands verständlicherweise sehr ausgeprägt und ebenso bedenklich. Widerstand wird erzeugt durch:

Wenn KI wirklich unsere gesamte Gesellschaft beeinflusst und wir alle etwas beitragen müssen, dann sind wir in einer unangenehmen Friss oder Stirb Situation. Die Bedrohung unserer Verhaltensfreiheit und der Zwang den grossen Tech-Giganten vertrauen zu müssen, dass sie das richtige tun, kann Reaktanz auslösen. In ähnlicher Situation befinden wir uns in der Klimadebatte. Die zwanghafte Suche nach zwanghaften Argumenten gegen die Erderwärmung ist eine Form der Reaktanz. Gleich verhält es sich mit der Auflehnung gegen die Impfpflicht. Selbst wenn die Entscheidung in den Widerstand oder Ablehnung zu gehen irrational ist, hat die Wiederherstellung der kognitiven Freiheit höchste Priorität. Wenige möchten bedroht oder bevormundet werden. In der Regel ist die Angst vor Kontrollverlust eine sehr mächtige. Sie verleitet den Menschen dazu, sich irrational zu verhalten oder sich komplett zu verweigern. (Kroeber-Riel et al., 2009).

Es ist äusserst schwierig zu sagen, welche Art der Kommunikation in Bezug auf KI zielführend ist. Dies hat unterschiedliche Gründe, unter anderem:

Die Mutter aller Probleme ist vermutlich die Tatsache, dass keiner genau weiss, wo der Weg hingehen soll. Eine Auseinandersetzung mit dem Thema sollte zumindest vier wesentliche Säulen in Betracht ziehen, nennen wir es den E-triple I Approach:

Fazit

Bis dato, spielen sich sowohl die Horror- als auch die Allheil-Szenarios über KI noch in der Zukunft ab. Obwohl vieles möglich wäre, Gutes als auch Schlechtes, bleiben die ganz grossen Geschichten aus. Was bleibt, ist der seltsame Nachgeschmack und die Warnungen einiger wichtiger Persönlichkeiten, wie Stephen Hawking oder Elon Musk. Immer mehr Menschen beschäftigen sich mit dem Thema in Forschung, Praxis, Schulen und mittlerweile auch zu Hause. Bereits Kinder unterhalten sich mit Alexa. Die Informationsmenge wird weiter zulegen, aber auch die Qualität der Informationen. Die Bedingung ist, dass der KI-Terminator-Hype abflacht und echte Chancen evaluiert und Gefahren reguliert werden. Bedeutungsloses KI-Washing, übertriebene Voraussagen und Bedrohungen werden Stück für Stück aufgeklärt. Menschen sind mehr denn je gefordert, mündige Konsumenten zu werden.

Links

Referenzen

Über die Autorin

Marisa Tschopp

Marisa Tschopp hat ihren Master in Wirtschaftspsychologie an der Ludwig-Maximilians-Universität in München absolviert. Als Doktorandin am Leibniz Institut für Wissensmedien ist sie aktiv in der Forschung zu Künstlicher Intelligenz aus Humanperspektive, wobei sie sich auf psychologische und ethische Aspekte fokussiert. Sie hat unter anderem Vorträge an TEDx Events gehalten und vertritt die Schweiz als Ambassador in der Women in AI Initiative. (ORCID 0000-0001-5221-5327)

Links

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!

×
Ist das Kunst? Persönliche Reflexionen über meine KI-Kunstwerke

Ist das Kunst? Persönliche Reflexionen über meine KI-Kunstwerke

Marisa Tschopp

Conversational Commerce

Conversational Commerce

Marisa Tschopp

ChatGPT & Co.

ChatGPT & Co.

Marisa Tschopp

TEDxBoston Countdown to AGI

TEDxBoston Countdown to AGI

Marisa Tschopp

Sie wollen mehr?

Weitere Artikel im Archiv

Sie brauchen Unterstützung bei einem solchen Projekt?

Unsere Spezialisten kontaktieren Sie gern!

Sie wollen mehr?

Weitere Artikel im Archiv