Group 3 Copy
0 Ergebnisse
Schließen

Mit Conversational Interfaces (CUI) zu einer natürlichen Interaktion?

Sie sagen uns, wie das Wetter wird. Spielen auf Befehl unsere Playlist ab. Oder erinnern uns an Termine. Ob Cortana, Siri, Alexa, Bixby oder Google Assistant – Conversational User Interfaces (CUI) sind längst ein fester Bestandteil auf unserem Smartphone und in unseren Wohnzimmern. Dabei sind Conversational User Interfaces nicht nur auf Sprachassistenten beschränkt, auch Chatbots oder Voice User Interfaces fallen unter dieses Buzzword. Diese natürlichsprachliche Interaktion wird oft als ein Paradigmenwechsel und die Zukunft der Interaktion gefeiert. Hatte sie doch schon immer den Nimbus, das ultimativ intuitive Interface zu sein. Die Idealvorstellung dahinter: Wir können mit einer Maschine sprechen, wie mit einem Menschen. Völlig mühelos und natürlich. Bisher konnte dieses Versprechen nicht eingelöst werden. Wird das mit den Conversation User Interfaces nun anders?

Ein Streifzug durch die Geschichte

Conversational User Interfaces sind nicht neu: Die Interaktion mit Computer begann tatsächlich als Sprachinterface. Nutzer gaben in geschriebener Sprache Kommandos und Computer führten diese aus. Nachteil: Die Nutzer mussten die Kommandos mit exakter Syntax erinnern. Revolutionär waren schließlich die ersten Graphical User Interfaces (GUI). Sie stellten digitale Objekte metaphorisch als Ordner und Dokumente dar, die auf einem Schreibtisch lagen. Statt sprachlicher Kommandos gab es "körperliche Aktionen": Man konnte Dokumente öffnen, verschieben oder in einen Papierkorb werfen. Die Interaktion mit Natural User Interfaces empfand noch stärker die Realität nach. So weist Reality-based-Interaction verschiedene Eigenschaften auf, die Nutzer von Kind auf in der realen alltäglichen Umwelt kennengelernt haben. Als ein Beispiel simuliert sie die Physik: Auf dem Smartphone können beispielsweise Listen mit dem Finger angestoßen oder abgebremst werden. Sie folgen also Auswirkungen von Impulserhaltung und Reibung, die Nutzer aus ihrem Alltag kennen. Spielte die Spracheingabe hier kaum eine Rolle, tritt sie dank technologischer Weiterentwicklungen aktuell wieder verstärkt in den Vordergrund: Dank Natural language procession (NLP) und Machine Learning (ML) können Nutzer heute relativ natürlich mit einem Computer sprechen.

Conversational User Interfaces werden oft als Paradigmenwechsel gefeiert.

Talk to me – CUIs im Einsatz

Kein Wunder also, dass Conversational User Interfaces mittlerweile aus unserem Alltag nicht mehr wegzudenken sind. Prädestiniert sind sie vor allem für den Verkauf und den Kundenkontakt: Das Kundengespräch wird gewissermaßen ausgelagert – an Maschinen. Dabei unterscheidet man zwischen Chatbots und Sprachassistenten. Chatbots sind quasi die Textversion der Conversational User Interfaces. Sie imitieren eine authentische auf geschriebenen Texten basierende Konversation beispielsweise in der Kundenberatung.

Conversational User Interfaces sind prädestiniert für den Verkauf und den Kundenkontakt.
Conversational User Interfaces (CUI) sind längst ein fester Bestandteil unseres Lebens.

Smarte Alleswisser

Sprachassistenten simulieren hingegen ein natürliches Gespräch: Nutzer können sie tatsächlich an- und im gewissen Umfang mit ihnen sprechen. Der Name macht schon klar: Sie sollten Nutzern assistieren, ihn in seinem Alltag unterstützen. Sei es beim Online-Einkauf, beim Beantworten von Fragen, bei der Suche im Web oder beim Steuern des Smart Home. Das alles geht längst nicht mehr ausschließlich über das Smartphone. Vielmehr sind die Sprachassistenten als Smart Speaker wie Apple Homepod und Amazon Echo in die Haushalte eingezogen. 2019 nutzten immerhin 32 % der Deutschen einen Sprachassistenten. 47 % verwendeten täglich ihren Smart Speaker. Allerdings zeigt sich: Die Aktivitäten reduzieren sich auf recht einfache Handlungen. Die angekündigte Revolution in der Mensch-Computer-Interaktion lässt noch auf sich warten.

Was spricht für CUIs?

Nutzer wenden die Sprache ihres Alltags an. Dadurch ist der Einstieg leichter und die Nutzung intuitiver. Außerdem können Nutzer mit dem Computer interagieren, auch wenn ihre Hände nicht frei sind. Gleiches gilt, wenn sie sich visuell auf andere Tätigkeiten konzentrieren müssen wie beispielsweise beim Autofahren. Daher sind Conversational User Interfaces auch für Menschen problemlos zugänglich, die motorisch oder visuell eingeschränkt sind. Dabei passen sich Conversational User Interfaces an den Sprecher an – sei es an Intonation, Lautstärke oder Sprechgeschwindigkeit.

Dank Conversational User Interfaces können Nutzer mit dem Computer interagieren, auch wenn ihre Hände nicht frei sind.

Mehr Schein als Sein?

Bei allen denn Vorteilen, für einige Probleme bietet die Conversational User Interfaces noch keine Lösung: Nutzer überblicken oft nicht, was das System kann und wo seine Grenzen liegen. Dies müssen sie ausprobieren – was nicht nur langwierig, sondern auch frustrierend sein kann. Der Nutzer kann den Eindruck bekommen, dass das System weitreichende Fähigkeiten hat und er sich über viele Themen mit dem System unterhalten kann. In der Regel mutieren die CUI-Systeme allerdings zu reinen Suchmaschinen und geben auf.

Siri, Du warst nicht gemeint

Conversational User Interfaces, die durch gesprochene Sprache gesteuert werden, müssen immer angesprochen werden. Sei es durch ein Schlüsselwort, ein sogenanntes wake word wie "Hey, Siri", oder durch eine andere Interaktion wie ein Tastendruck. Der Sprecherwechsel (turn taking) lässt sich bisher noch nicht gut bewerkstelligen. Das bedeutet auch: Ab und zu fühlen sich Alexa, Siri & Co. versehentlich angesprochen und leiten aus einem Gespräch Aktivitäten ab, die Nutzer so nicht beabsichtigt hat.

Bei allen denn Vorteilen, für einige Probleme bietet die Conversational User Interfaces noch keine Lösung.

Mit wem sprichst Du?

Auch wenn andere anwesend sind, kann es oft zu Missverständnissen kommen: Beginnt eine Person einen Dialog mit einem Conversational User Interface, fühlen sich oft andere Anwesende angesprochen, interpretieren den Dialog falsch und reagieren. Unangenehm ist dies für die nichtangesprochene Person, aber auch für den CUI-Nutzer. Die Folge: CUI-Nutzer sprechen leiser. Dadurch erkennt das Conversational User Interface wiederum die Sprachäußerung nicht richtig und er muss wiederholt werden. Daher ist es oft schwierig, ein Conversational User Interface zu verwenden, wenn mehrere Personen anwesend sind.

Ethische Fragen

Ethische Bedenken wiegen ebenfalls schwer: Welche Daten sammelt das Conversational User Interface? Was passiert mit diesen? Das ist für den Nutzer oft nicht nachvollziehbar. Ein weiteres Problem: Mit dem CUI Google Duplex lassen sich beispielsweise Termine vereinbaren. Google Duplex ist so natürlich, dass der Nutzer nicht erkennt, ob er mit einer realen Person spricht oder mit einer Technologie. Aus ethischer Sicht sollte daher: 1. Technologien sich immer als solche zu erkennen geben. 2. Daten vertraulich behandelt werden. 3. Der Nutzer sein Einverständnis zu einer Konversation geben können.

Fazit

Conversational User Interfaces können die Interaktion natürlicher gestalten und neue Möglichkeiten der Interaktion schaffen. Nicht nur im smarten Zuhause, sondern auch in Arbeitskontexten könnten sie zukünftig bald ihr Potenzial entfalten. Insbesondere dort, wo Mensch und Künstliche Intelligenz zusammenarbeiten. Generell müssen Gestalter und Entwickler jedoch entscheiden, in welchen Anwendungsfällen ein Conversational User Interfaces angemessen ist. Dabei helfen die genannten Vor- und Nachteile.

Der Autor

Prof. Dr. Michael Burmester ist Principal Scientific Advisor bei UID. Seit 2002 ist Dr. Michael Burmester Professor für Ergonomie und Usability im Studiengang Informationsdesign an der Hochschule der Medien (HdM) in Stuttgart. Er forscht zu Methoden menschzentrierter Gestaltung und positiver User Experience. Kern der aktuellen Forschungsarbeiten ist positive User Experience in modernen Arbeitskontexten, wobei jeweils aktuelle technologische Entwicklungen, wie Künstliche Intelligenz, Virtual Reality, Augmented Reality etc. einbezogen werden. An der HdM leitet er das User Experience Research Labs (UXL) und die Forschungsgruppe „Information Experience and Design Research Group" (IXD) und ist Koordinator des durch das Bundeswirtschaftsministerium geförderte Mittelstand 4.0-Kompetenz-Zentrum Usability.

Der Autor Michael Burmester