Informatik Freundlich, witzig oder bossy

Stellen Sie sich vor, ein neuer Nachbar steht vor Ihrer Tür, lächelt freundlich und lädt Sie zum Kaffee ein. Ohne es bewusst zu bemerken, machen Sie sich bereits in den ersten Sekunden ein ziemlich umfassendes Bild von seiner Persönlichkeit

von Dr. Sarah Theres Völkel

Diese unbewusste Einordnung der Persönlichkeit beeinflusst das Verhalten gegen­über dieser Person, zum Beispiel Ihre Entscheidung, ob Sie sich tatsächlich auf einen Kaffee treffen. Ähnlich verhält es sich, wenn wir mit Chatbots wie ChatGPT oder Sprach­assistenten wie Siri, Alexa und Co. interagieren. Obwohl wir genau wissen, dass wir es mit einer Maschine zu tun haben, schreiben wir ihnen automatisch Persönlichkeits­eigenschaften zu, zum Beispiel freundlich oder hilfs­bereit. Dieses Phänomen ist bekannt und wurde bereits in den 1990er-Jahren erforscht. Auch bei Sprach­assistenten und Chatbots hat die Wahrnehmung der Persönlichkeit somit einen großen Einfluss darauf, wie gern wir mit ihnen interagieren.

Folglich spielt diese Wahrnehmung der Persönlichkeit eine große Rolle bei der Entwicklung von Chatbots und Sprach­assistenten. Wissen­schaftler:innen wissen jedoch recht wenig darüber, wie sich die Persönlichkeiten von Chatbots und Sprach­assistenten bewusst und systematisch entwickeln lassen. Genau hier setzt unsere Arbeit an.

Zunächst schauten wir darauf, wie wir Menschen die Persönlichkeit anderer wahr­nehmen. Indem wir uns anhand von Sprache, Mimik und Gestik ein Bild machen. Ein Beispiel: Wenn Ihr Nachbar viel redet, laut spricht und Blick­kontakt sucht, werden Sie ihn tendenziell für extrovertiert halten. Wir wollten wissen: Können wir diese Verhaltens­weisen von Menschen einfach auf Chatbots und Sprach­assistenten über­tragen, um eine künstliche extrovertierte Persönlichkeit zu erstellen?

Um diese Frage zu beantworten, programmierten wir drei verschiedene Chatbots: einen extrovertierten, einen durch­schnittlichen und einen introvertierten.

Sarah Theres Völkel bei der Analyse von Interviews zum Umgang mit Sprachassistenten und Chatbots
©Annette Mueck
Sarah Theres Völkel bei der Analyse von Interviews zum Umgang mit Sprachassistenten und Chatbots

Dafür machten wir uns zahl­reiche menschliche Verhaltens­­weisen zunutze, die gemäß Erkenntnissen aus der Psychologie mit diesen Persönlichkeits­eigenschaften zusammen­hängen. Beispiels­weise schreibt der extro­vertierte Chatbot längere Nachrichten in Umgangs­sprache und verwendet viele Emojis. Im Gegen­satz dazu ist der intro­vertierte Chatbot zurück­haltender und verwendet formelle Sprache.

Anschließend ließen wir diese drei Chatbots von 34 Menschen für jeweils vier Tage testen und baten sie anschließend um ihre Wahrnehmung der Persönlichkeiten. Die Ergebnisse zeigten, dass die Test­personen den extro­vertierten und den durch­schnittlichen Chatbot tatsächlich so wahrnahmen wie beabsichtigt. Den intro­vertierten Chatbot hatten wir indes nicht glaubhaft umgesetzt. Darüber hinaus stellten wir fest, dass Menschen die Persönlichkeit von Chatbots anders beschreiben als die von Menschen. Beispielsweise wirkte der durch­schnittliche Chatbot auf viele Menschen eher roboterhaft. Wir vermuteten daher, dass sich menschliche Verhaltens­weisen, die eine Persönlichkeit prägen, gar nicht so einfach auf Chatbots und Sprach­assistenten übertragen lassen.

Um diese Vermutung zu überprüfen, entwickelten wir einen systematischen Ansatz eigens für künstliche Persönlichkeit – und identifizierten zunächst die Eigenschaften, die bei einer künstlichen Persönlichkeit zu berücksichtigen sind. Hierfür gingen wir nach einer Methode aus der Persönlichkeits­psychologie vor. In einem ersten Schritt sammelten wir möglichst viele Wörter, mit denen Menschen die Persönlichkeit von Sprach­assistenten und Chatbots beschreiben. Zum Beispiel luden wir Menschen in unsere Labore ein und ließen sie verschiedene Sprach­assistenten ausprobieren und danach beschreiben. Des Weiteren extrahierten wir Adjektive aus Zehn­tausenden von Rezensionen bekannter Sprach­assistenten. Am Ende hatten wir 870 verschiedene Wörter gesammelt.

Im nächsten Schritt fassten wir diese 870 Wörter nach über­greifenden Merkmalen zusammen. Dafür bedienten wir uns eines statistischen Verfahrens. Damit erkannten wir Muster in der Art und Weise, wie Menschen die Persönlichkeits­eigenschaften von Sprach­assistenten beschreiben. Zum Beispiel umfasst das menschliche Persönlichkeits­merkmal „extrovertiert“ viele Eigenschaften wie gesellig, aktiv und durch­setzungs­fähig. Mithilfe dieses statistischen Verfahrens fanden wir zehn über­greifende Persönlichkeits­merkmale, die unter anderem beschreiben, wie künstlich, freundlich, informativ oder auch unterhaltend Sprach­assistenten wirken. Diese über­greifenden Persönlichkeits­merkmale stimmen nicht mit dem Persönlichkeits­modell für Menschen, dem sogenannten „Big Five“-Modell, überein. Daher kamen wir zu dem Schluss, dass sich die Wahrnehmung der menschlichen und künstlichen Persönlichkeit unterscheidet. Darauf aufbauend entwickelten wir eine Methode, um diese Eigenschaften auch tatsächlich in Sprachassistenten umzusetzen.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Natürlich wollten wir auch besser verstehen, wie Menschen sich Sprach­assistenten oder Chatbots wünschen. Dafür baten wir mehr als 200 Menschen darum, ihre Vorstellung von Dialogen für „perfekte“ Sprach­assistenten auf­zu­schreiben – um bei der Analyse zu erkennen, dass es die eine perfekte Persönlichkeit gar nicht gibt. Getreu dem Sprichwort „Gleich und Gleich gesellt sich gern“ vermuteten wir, dass die Persönlichkeit eines Menschen Einfluss darauf hat, welche Persönlichkeit er oder sie in einem digitalen Gegenüber bevorzugt. Sprich: Wer selbst extrovertiert ist, mag den extrovertierten Nachbarn lieber als den introvertierten. Unsere Ergebnisse zeigten jedoch, dass dies keines­wegs so einfach ist. Menschen haben zwar eindeutige Vorlieben für unterschiedliche Persönlichkeiten in Chatbots und Sprach­assistenten, aber diese sind individuell und eher vom jeweiligen Kontext als von der eigenen Persönlichkeit abhängig.

Gleichwohl konnten wir zeigen, wie wichtig es ist, die „digitale“ Persönlichkeit auf die Vorlieben der Nutzer:innen zuzuschneiden. Bis es so weit ist, sind allerdings noch einige Heraus­forderungen zu bewältigen. Wenn es uns beispiels­weise gelingt, für jeden Menschen einen perfekt zugeschnittenen Chatbot zu entwickeln, werden die Menschen dem Rat dieses Chatbots vermutlich vertrauen. Daher müssen wir sicherstellen, dass die Entwicklung künstlicher Persönlichkeit nicht missbraucht wird, um Menschen zu manipulieren.

Trotz dieser Herausforderungen hat unsere Forschung gezeigt, dass individuell zugeschnittene Persönlichkeiten in Chatbots und Sprach­assistenten das Potenzial haben, unsere Interaktion mit ihnen maßgeblich zu verbessern. Daher könnten wir diese zum Beispiel einsetzen, um genauer auf individuelle Bedürfnisse einzugehen. Stellen Sie sich vor, dass jedes Kind einen persönlichen Lern-Chatbot hat, der genau weiß, das Kind zu motivieren. Sprach­assistenten kommen bereits heute zum Einsatz, um Pflege­dienste in einer stetig alternden Gesellschaft zu erweitern. Wenn diese Sprach­assistenten mit einer gut abgestimmten Persönlichkeit ausgestattet werden, können sie ältere Menschen im Alltag unterstützen und, sofern dies gewünscht ist, ihnen Gesellschaft leisten.

Zum Thema

Ich würde rot werden

Siri, Alexa oder Cortana: Die Stimmen fast aller Sprach­­assistenten klingen ­weiblich. Das ist ein Problem

Auch wenn es sich dabei nur um Software handelt: Es spielt eine Rolle, wie eine Maschine zu uns spricht. In den meisten Fällen hören wir eine Frau. Zwar antwortet Siri auf die Frage nach ihrem Geschlecht, sie habe keines. Dennoch assoziieren wir aufgrund der verwendeten Tonfrequenz Siris Stimme mit einer Frau. Umfragen offenbarten, dass Männer wie Frauen weibliche Stimmen bevorzugen, wenn sie ihre Musik­anlage steuern, sich im Auto den Weg weisen lassen oder in Warte­schleifen eines Internet­anbieters versauern.

Nun kann man sagen: Schön, wenn das Ergebnis so klar ist, sind eben alle Sprach­assistenten weiblich. Wo ist das Problem? Doch tatsächlich feiern mit Siri und Co. die 1950er-Jahre ihr Comeback. Wie das „Fräulein vom Amt“ informieren die digitalen Sprach­assistenten sachlich, freundlich und service­orientiert. Nur dass sie uns heute den ganzen Tag begleiten. Bis ins Bett, wenn man ihnen nur noch sagen muss: Licht aus. So werden Geschlechter­klischees, die zumindest teilweise als überwunden galten, wiederbelebt, manifestiert und in der ganzen Welt verbreitet.

Interessant ist auch, wie Sprachassistenten auf sexuelle Belästigung reagieren. So antwortete bis 2019 die weiblich klingende Siri auf „You’re a slut“ – „Du bist eine Schlampe“ – noch mit „I’d blush if I could“ – „Ich würde rot werden, wenn ich könnte“. Mittler­weile haben Apple, Amazon und andere auf den Bias reagiert und solche Antworten gestrichen. Apples Siri wird demnächst eine Stimme enthalten, die weder als weiblich noch männlich empfunden wird. Ein Hoffnungs­schimmer immerhin.

Doch eines ist gewiss: Wer die digitalen Assistenten mit einer möglichst menschlichen Persönlichkeit programmieren will, muss wissen, dass KI stets den Sexismus, Rassismus und andere Probleme der (jeweiligen) Gesellschaft widerspiegelt. — J. Schüring

Sie verwenden einen veralteten Browser oder haben Javascript in Ihrem Browser deaktiviert.
Bitte aktualisieren Sie Ihren Browser oder aktivieren Sie Javascript.
x