Interview zum Thema Vermenschlichung unserer Technik

Interview zum Thema Vermenschlichung unserer Technik

Mittwoch, 22. November 2023

Marisa Tschopp hat mit Elisabeth Urban von t3n in einem Hintergrundinterview zum Thema Vermenschlichung unserer Technik gesprochen. Die Wirtschaftspsychologin ist Expertin auf dem Gebiet der Mensch-Maschine Interaktion, und spricht mit dem digitalen Magazin über verschiedene psychologische Aspekte und damit einhergehende Risiken, wenn wir Maschinen vermenschlichen. Da wäre einerseits der Fall, wenn man deren Fähigkeiten überschätzt. Oder es findet ein gewisses Overtrust-Phänomen statt, wenn eine Maschine kaum noch hinterfragt wird. Unternehmen können dies gegen Nutzerinnen und Nutzer verwenden, persönliche Daten zu sammeln und noch gezielter Anwendungen zu verkaufen, die man gar nicht benötigt. Abschliessend sagt Tschopp auch, dass Maschinen emotionale menschliche Intelligenz nicht nachempfinden können, und dass wir neue technologische Entwicklungen auch immer mit einem gesunden Abstand betrachten sollten.

Frau Tschopp, hat ihr Computer eigentlich einen Namen?

Nein, eigentlich nicht. Meine sprachgesteuerten Systeme haben zwar Namen, die habe aber nicht ich ihnen gegeben, sondern die Hersteller. Die einzige Ausnahme, bei der ich eigene Namen vergebe: Wenn ich wütend auf ein Gerät bin.

Wie kommt es, dass wir Menschen immer wieder Gegenstände vermenschlichen und ihnen zum Beispiel Namen geben?

Dass wir Dinge vermenschlichen, ist etwas ganz Natürliches. Wir Menschen haben evolutionsbedingt ein fundamentales Bedürfnis, sozial zu interagieren. Denn: Der Austausch mit anderen Menschen hilft uns, zu überleben, und macht vielen auch einfach Spass.

Beim Zusammenspiel mit Maschinen gibt es ähnliche Vorteile. Die Mensch-Maschine-Interaktion hilft uns, Ziele zu erreichen; zum Beispiel das Licht auszuschalten oder Texte zu schreiben, und sie kann Spass machen.

Psychologisch gibt es zwei Aspekte, warum wir technische Geräte vermenschlichen. Zum einen versuchen wir damit, das Verhalten des Gegenübers besser vorherzusagen. Der Gedanke, dass eine Maschine ähnlich handelt wie wir selbst, hilft uns, ihre Reaktionen besser einzuschätzen und gibt uns dadurch Sicherheit. Zum anderen zahlt die Vermenschlichung auf das eben angesprochene Bedürfnis nach sozialer Interaktion ein. Gerade Menschen, die sich einsam fühlen, neigen eher dazu, Maschinen zu vermenschlichen. So sind in der Coronakrise beispielsweise die Nutzungszahlen von AI Friends und entsprechenden Chatbots durch die Decke geschossen.

Gibt es einen Punkt, an dem sich das Ganze negativ auswirken kann?

Kritisch wird es, wenn die Vermenschlichung dazu führt, dass wir die Fähigkeiten einer Maschine überschätzen, ihr zum Beispiel ein Bewusstsein, Gefühle oder Intentionen zuschreiben. Wird der Output einer Maschine kaum noch hinterfragt, spricht man ausserdem von einem Overtrust-Phänomen. Unternehmen können dieses übermässige Vertrauen für sich nutzen und uns durch scheinbar vertrauenswürdige, vermenschlichte Anwendungen dazu bringen, mehr persönliche Daten freizugeben, Dinge zu kaufen, die wir eigentlich nicht brauchen, oder mehr Zeit mit einer Anwendung zu verbringen.

Vor Kurzem ist eine Studie erschienen, die besagt, dass man zu Sprachmodellen wie Chat-GPT nett sein sollte, um bessere Ergebnisse zu erhalten. Was ist da dran?

Aus meiner Sicht ist diese Studie ein perfektes Beispiel, um die Vor- und Nachteile von anthropomorpher, also vermenschlichender Sprache zu diskutieren. Da ist zum Beispiel die Rede davon, die KI habe ein Gespür für emotionale Intelligenz, würde Dinge erkennen oder verstehen. Das ist natürlich so nicht der Fall, und auch wenn die Ausdrücke von den Autoren nur als Analogie benutzt werden, lösen sie in den Menschen, die die Studie lesen, etwas aus. Inhaltlich muss man sich immer wieder vor Augen führen: Solange eine Studie nicht reproduzierbar ist, was gerade bei Studien, die den Output von KI-Modellen evaluieren, häufig vorkommt, ist ihre Aussage mit Vorsicht zu geniessen.

Wir haben in unserer Social-Media-Community mal nachgefragt, wer seinem Computer einen Namen gegeben hat. Darauf gab es einige Kommentare, dass zwar der Computer namenlos ist, dafür aber zum Beispiel das Auto einen Spitznamen hat. Was sorgt dafür, dass wir uns mit manchen Gegenständen mehr verbunden fühlen als mit anderen?

Die Dinge, die wir vermenschlichen, haben meist eine gewisse persönliche Relevanz für uns und einen Wert. Dieser Wert kann finanziell sein, aber auch sentimental, zum Beispiel bei bestimmten Geschenken. Je mehr Wert und Relevanz man einem Gerät zuschreibt, desto eher neigt man dazu, es zu vermenschlichen. Auch die Optik ist ein entscheidender Faktor. Ein brauner Teddybär mit schönen Kulleraugen hat auf ein Kind eine andere Wirkung als ein weniger menschlich gestalteter Gegenstand. Bei Autos kommen dann zum Beispiel auch noch bestimmte Gefühle dazu: Der Strassenverkehr ist gefährlich, es passieren viele Unfälle, wir befinden uns mit dem Auto also in einer gewissen Risikosituation und sind immer wieder dankbar, wenn es uns sicher ans Ziel gebracht hat. Dazu macht das Autofahren vielen Menschen auch einfach Spass.

Schauen wir nochmal speziell auf technische Geräte. Gibt es da besondere Faktoren, die dafür sorgen, dass manche Geräte maximal eine Schimpftirade abbekommen, und uns andere doch mehr am Herzen liegen?

Dazu ist vor Kurzem ein spannender Artikel veröffentlicht worden. Anfang der Zweitausender Jahre wurde das sogenannte Casa-Paradigma aufgestellt, Casa steht für Computers are social actors. Das Paradigma besagt, dass Menschen Maschinen wie soziale Akteure behandeln, also mit ihnen agieren, als wären sie andere Menschen. Um das zu zeigen, wurden viele unterschiedliche Studien durchgeführt. In einer davon sind zum Beispiel zwei Teams mit Computern gegeneinander angetreten, und es waren immer die Teams besser, bei denen nicht nur die Menschen, sondern auch die Computer ein Trikot anhatten. Jetzt ist allerdings eine Studie herausgekommen, die besagt: Das Paradigma zählt noch immer, aber nicht mehr für ganz normale (Desktop-)Computer. Da waren die Ergebnisse nicht mehr replizierbar, und die beteiligten Forscher gehen jetzt davon aus, dass wir uns einfach zu sehr an normale Computer gewöhnt haben. Die Idee ist, dass die Sozialisierung nach dem Casa-Paradigma vor allem dann stattfindet, wenn Technologien neu, besonders interaktiv oder, zum Beispiel bei Konsolen, emotional aufgeladen sind.

Links

Tags

Sie wollen eine KI evaluieren oder entwickeln?

Unsere Spezialisten kontaktieren Sie gern!