Mensch und KI
Marisa Tschopp
Die unvorhersehbare Zukunft des Online-Shoppings
Drei Jahrzehnte später hat das Einkaufserlebnis ein neues Niveau an Komfort und Interaktivität erreicht. Mit KI-Assistenten wie Alexa müssen Sie nicht einmal mehr einen Finger auf Ihren Computer legen. Führen Sie einfach ein Gespräch mit Ihrem KI-Assistenten, und schon sind Sie startklar. Sie können ihn anweisen, in Ihrem Namen einen Kauf zu tätigen. Die Funktionen des Voice Shoppings haben den Prozess wirklich rationalisiert und machen langwieriges Suchen oder mühsames Tippen überflüssig. Wie Wally Brill, eine Legende im Bereich Konversationsdesign, es ausdrückt: Sie stehen in der Küche und bereiten ein köstliches Abendessen mit rohem Hähnchen zu, während Sie gleichzeitig mühelos per Sprachbefehl Artikel in Ihren Einkaufswagen legen. Es ist eine ganz neue Ära des Multitaskings und nahtloser Einkaufserlebnisse, wie sie in der Werbung dargestellt werden.
So faszinierend diese Fortschritte auch sind, so wichtig ist es, die Auswirkungen dieses technologischen Fortschritts kritisch im Auge zu behalten. Voice Shopping scheint zwar unvergleichlichen Komfort zu bieten, wirft aber auch Bedenken hinsichtlich Datenschutz und Sicherheit auf. Da wir uns beim Einkaufen immer mehr auf KI-Assistenten verlassen, sammeln diese erhebliche Mengen an persönlichen Informationen über unsere Vorlieben und Gewohnheiten. Diese Daten können für gezielte Werbung wertvoll sein, aber sie machen die Verbraucher auch anfällig für mögliche Datenschutzverletzungen oder Missbrauch. Ein Gleichgewicht zwischen Innovation und dem Schutz der Privatsphäre der Nutzer zu finden, bleibt eine entscheidende Herausforderung für die Zukunft des “Voice Shoppings” und der KI-Technologien für Unterhaltungen.
Obwohl Voice Shopping unter den Begriff E-Commerce fällt, unterscheidet es sich erheblich von den traditionellen Online-Einkaufsmethoden. Bei der Erforschung dieses Bereichs erkennen wir, wie wichtig es ist, geeignete Forschungsmethoden auszuwählen, um seine einzigartige Dynamik zu verstehen. In unserer jüngsten Studie wollten wir uns ein besseres Bild davon machen, wie die Menschen per Sprache einkaufen. Deshalb haben wir über 300 erfahrene Voice-Shopper im Vereinigten Königreich (im Jahr 2022) befragt, um aus erster Hand einige beschreibende Daten zu erhalten.
Welches Gerät verwenden Sie für das Voice-Shopping? | Benutzen Sie beim Voice-Shopping einen Bildschirm? | Wie oft nutzen Sie Voice-Shopping? | Seit wann nutzen Sie Voice-Shopping? | Durchschnittliche Ausgaben pro Jahr in £ (GBP)? |
---|---|---|---|---|
|
|
|
| Durchschnitt = 415,82 GBP |
Interessanterweise scheint Voice-Shopping konzeptionelle Ähnlichkeiten mit der Entscheidungsfindung in stationären Geschäften aufzuweisen, wo die Kunden von Angesicht zu Angesicht mit dem Verkaufspersonal interagieren. Wir vermuten, dass Kunden ihre KI als Quasi-Verkaufsagenten wahrnehmen, die sie ähnlich wie menschliche Verkäufer dabei unterstützen, informierte Kaufentscheidungen zu treffen.
Die Wahrnehmung von KI als Shopping-Assistenten wurde in der Forschung bisher nicht ausreichend berücksichtigt, obwohl es eine Vielzahl von Studien zu Empfehlungssystemen gibt. Darüber hinaus stellen die vorliegenden Ergebnisse ein Paradoxon dar und zeigen, dass KI-Gespräche sowohl Gefühle der Befähigung als auch der Freundschaft hervorrufen können, wenn auch für bestimmte Produkte.
Zusammenfassend lässt sich sagen, dass die langsame Akzeptanz von Voice Shopping und die widersprüchlichen Ergebnisse der bisherigen Forschung uns dazu veranlassen, die mögliche Verbindung zwischen Kaufpräferenzen und der Wahrnehmung der KI-Assistenten durch die Verbraucher zu untersuchen. Wenn wir diese Dynamik verstehen, können wir vielleicht die Faktoren entschlüsseln, die eine breite Akzeptanz von Voice Shopping fördern oder behindern.
Haben Sie sich jemals gefragt, warum wir Maschinen so behandeln, als wären sie fast menschlich? Dies ist ein faszinierender Trend, der sich in vielen Studien zur Erforschung der Beziehungen zwischen Mensch und KI zeigt. Wir können einfach nicht anders, als diesen robotischen Gegenstücken Emotionen und Absichten zuzuordnen. Es ist, als ob unsere Gehirne so verdrahtet sind, dass Maschinen sich eher wie einer von uns fühlen. Es ist bemerkenswert, wie wir dazu neigen, Maschinen zu vermenschlichen, indem wir ihnen Gefühle und Absichten zuschreiben, als wären sie einer von uns. Dieser merkwürdige Aspekt hat Experten dazu veranlasst, psychologische Theorien heranzuziehen und sie auf unsere Interaktionen mit KI anzuwenden, um unser Verhalten zu verstehen und vorherzusagen, wie wir mit diesen technologischen Begleitern umgehen.
Aber worüber sprechen wir eigentlich genau, wenn wir über Mensch-Maschine-Beziehungen sprechen? Pentina, Xie, Hancock & Bailey (2023) geben einen Überblick über die Beziehungen zwischen Mensch und Maschine, in dem sie 37 von Experten begutachtete empirische Studien analysieren. Die in diesen Studien verwendeten Theorien stammen aus der Sozialpsychologie (z. B. Bowlbys Bindungstheorie), der Kommunikationswissenschaft (z. B. das Uses & Gratifications-Paradigma), der Mensch-Computer-Interaktion (z. B. das CASA-Paradigma) oder anderen, wie der parasozialen Interaktionstheorie. Dies sind nur einige Beispiele für die Fülle der in diesem Bereich angewandten Theorien. Jede Theorie bringt ihre eigenen Stärken und Schwächen mit sich und bereichert unser Verständnis der Beziehungen zwischen Mensch und KI auf unterschiedliche Weise. Dennoch bleiben offene Fragen ungelöst:
Kürzlich haben wir unsere erste Studie veröffentlicht, die sich mit der Frage befasst, wie Menschen ihre Beziehung zu konversationeller KI wahrnehmen. Durch die Linse von Fiskes relationaler Modelltheorie hat unsere Forschung faszinierende Einsichten darüber offenbart, wie Benutzer Verbindungen mit KI-Systemen herstellen.
Wir haben drei verschiedene Beziehungsmodelle identifiziert, die Benutzer annehmen. Erstens gibt es die traditionelle Master-Servant Beziehung, bei der sich die Benutzer als autoritäre Kontrollinstanz sehen, während das KI-System ihre Befehle ausführt. Zweitens entwickeln einige Benutzer eine freundschaftsähnliche Beziehung zur KI, die die Interaktion mit einem Gefühl der Kameradschaft und des Zusammenhalts versieht. In diesem Szenario wird die KI mehr als nur ein Werkzeug; sie entwickelt sich zu einem vertrauenswürdigen Verbündeten, der in der Lage ist, Unterstützung und Verständnis anzubieten. Schliesslich haben wir ein rationales Beziehungsmodell beobachtet, bei dem die Benutzer das KI-System als einen einigermassen gleichwertigen Partner behandeln. Diese Dynamik spiegelt eine ausgewogenere Interaktion wider, bei der beide Parteien in einen kollaborativen Informations- und Entscheidungsaustausch treten.
Die Entschlüsselung dieser verschiedenen Beziehungsmodelle wirft ein Licht auf die facettenreiche Natur von Mensch-KI-Interaktionen und verbessert unser Verständnis für die sich entwickelnde Dynamik zwischen Nutzern und KI-Systemen. In einer Folgestudie untersuchten wir die Rolle der Wahrnehmung von Mensch-KI-Beziehungen bei sprachgesteuerten Kaufentscheidungen. Insbesondere haben wir gefragt, ob die Art der Beziehung, die Menschen zu ihrer KI haben, die Art der Produkte beeinflusst, die sie kaufen. Kurz gesagt, wir fanden heraus, dass die Wahrnehmung der Sprach-KI als Freund die stärkste Vorhersagekraft für Produkte mit hohem und niedrigem Involvement hat. Die Wahrnehmung der KI als Diener sagte auch Einkäufe mit geringem Involvement voraus.
Um kausale Zusammenhänge herzustellen und belastbare Aussagen über die Art der Interaktion zwischen Mensch und KI zu treffen, ist ein experimenteller Ansatz unerlässlich. Während unsere Untersuchungen zu den verschiedenen Beziehungsmodellen wertvolle Erkenntnisse liefern, ermöglichen uns experimentelle Studien, Variablen zu manipulieren und ihre Auswirkungen auf die Interaktion zu bewerten. Durch den Entwurf kontrollierter Experimente können wir systematisch verschiedene Bedingungen testen und beobachten, wie sie das Verhalten der Nutzer und ihre Wahrnehmung von KI-Systemen beeinflussen. Auf diese Weise können wir Ursache-Wirkungs-Beziehungen identifizieren und ein tieferes Verständnis der zugrunde liegenden Mechanismen gewinnen, die den beobachteten Mustern zugrunde liegen.
Wir werten derzeit unsere Experimente aus, in denen wir die Auswirkungen eines emotionaleren Designs auf Voice-Shopping-Entscheidungen getestet haben. Wir können noch keine Ergebnisse vorlegen, aber wir teilen das experimentelle Verfahren, bei dem wir die Ausgabe von Alexa manipuliert haben. Insgesamt haben wir vier Videos erstellt. Zwei Standard-Einkaufsszenarien, in denen eine Person etwas über Alexa kauft. Dann haben wir zwei Videos erstellt, in denen Alexa aus Sicht des Konversationsdesigns emotionaler war.
Beispiel Standardvideo: Im Standardvideo kocht eine Person in der Küche. Die Person “weckt” Alexa auf, indem sie ihr mitteilt, dass die Kaffeemaschine kaputt gegangen ist, und leitet den Kauf der Kaffeemaschine über Amazon ein, während sie noch das Abendessen kocht. Die Konversation ist sehr nah am Original, aber um die Ausgabe manipulieren zu können, brauchten wir klare Zeitschnitte. Daher wurde das gesamte Video geskriptet. Sowohl die menschlichen als auch die Alexa-Ausgaben wurden aufgezeichnet. Die Alexa-Ausgaben wurden mit dem Text to Voice Skill manipuliert und dann aufgezeichnet. Die Videos und Aufnahmen wurden mit MS Clipchamp geschnitten und bearbeitet.
Beispiel emotionale Alexa Video: Da wir untersuchen wollten, ob ein emotionaleres Design eine Wirkung auf die Menschen hat, je nachdem, wie sie mit dem System in Verbindung stehen, haben wir Alexas Ausgabe manipuliert. Die Videos waren identisch, aber wir änderten die Formulierungen, um Alexa freundlicher und einladender zu machen. In einem Vortest stellten wir fest, dass die Teilnehmer die manipulierte Version deutlich freundlicher einschätzten. Wir stützten uns auf frühere Forschungsergebnisse, die vorschlugen, Identität durch die Verwendung von Pronomen in der ersten Person (z. B. Alexa bezeichnet sich selbst als ich oder beide als wir) oder durch das Signalisieren von Empathie (z. B. Oh nein, das tut mir leid!) zu signalisieren. Ausserdem haben wir Screenshots der Alexa-Ausgabe erstellt. In der manipulierten Version haben wir ausserdem Emojis eingefügt, um das Design zu vermenschlichen.
Die Zukunft des sprachgesteuerten Handels sieht vielversprechend aus, da die Nutzer von Conversational AI mit einfachen Sprachbefehlen problemlos Einkäufe tätigen können. Prognosen deuten darauf hin, dass generative KI den elektronischen Handel weiter revolutionieren wird. Allerdings ist die Akzeptanz des Voice-Shoppings noch begrenzt, und die Gründe dafür sind nicht vollständig geklärt. Ein möglicher Faktor ist die Wahrnehmung, dass digitale Assistenten nicht die Wärme eines menschlichen Verkäufers haben. Derzeit erforschen wir die Auswirkungen des emotionalen Designs auf die Absicht, per Sprache einzukaufen, und werden unsere Ergebnisse in den nächsten 6-12 Monaten vorstellen. Wir werden Sie über unsere neuesten Erkenntnisse auf dem Laufenden halten, sobald wir uns eingehender mit dem Thema Voice Shopping und dessen Zusammenhang mit emotionalem Design beschäftigen. Bleiben Sie dran, um in den kommenden Monaten weitere Erkenntnisse und Entdeckungen zu erhalten.
Unsere Spezialisten kontaktieren Sie gern!
Marisa Tschopp
Marisa Tschopp
Marisa Tschopp
Marisa Tschopp
Unsere Spezialisten kontaktieren Sie gern!