VUI Design

Warum Multimodalität und Multidevice die großen Trends im Jahr 2021 sind

smart-phone-lying-on-a-white-surface-with-an-open-screen-and-voice-assistant-on

Im Rückblick auf das letzte Jahr können wir sehen, wie Voice-Technologie immer weiter exponentiell wuchs. Die Zeit, die wir zuhause verbringen, der Mangel an Kommunikation mit der Außenwelt und unsere gestiegene Internetnutzung sind nur einige Faktoren, die die Adoptionsgeschwindigkeit beeinflussen. Brian Roemmele, Vorsitzender von Multiplex, vermutet jedoch, dass der Voice-First-Bereich weiterhin die Technologie mit der schnellsten Adoptionsgeschwindigkeit unserer Zeit bleiben wird.

Im Jahr 2020 sind wir immer weiter an das Ideal einer natürlicheren Konversation mit unseren KI-Assistenten herangekommen. Amazons Funktionen, die Multi-Value-Slots oder mehrere Interaktions– und Gesprächswechsel unterstützen, sind nur ein paar Beispiele, die in diese Richtung gehen.

infographic-showing-the-benefits-of-voice

Was passiert im Voice-Bereich? Voice als Modus und nicht als Produkt.

Da wir momentan nur sehr wenig draußen unternehmen können, suchen wir immer mehr nach Unterhaltung in den eigenen vier Wänden. Dies führte wiederum dazu, dass durch die Pandemie die Erwartungshaltung gegenüber digitalen Erlebnissen enorm stieg (Fjord Trends 2021), was darüber hinaus mit einem Bedürfnis des Nutzers nach sichereren und berührungslosen Interaktionen einhergeht.

Die Zahl der smarten Geräte, die uns umgeben, ist deutlich gestiegen: Smartphones, Tablets, Lautsprecher, Fernseher, Roboter, Staubsauger, Lampen, Luftqualitätsmonitore, Alarmanlagen, Thermostate, Wearables, die unsere Gesundheit überwachen, Gaming-Systeme, VR-Headsets und vieles mehr. Unser Leben ist voll von geräteübergreifenden Momenten.

Für uns als Benutzer*innen waren haptische Interaktionen lange Zeit die einzige Möglichkeit, technischen Geräten unsere Absichten zu vermitteln. Mit den ersten Bildschirmen kam dann schließlich auch der visuelle Aspekt ins Spiel. Mit haptischen und visuellen Elementen fühlen wir uns wohl. Tatsächlich ist die visuelle und haptische Navigation für uns als Menschen sehr natürlich und intuitiv. Eine Zeit lang waren sie unsere einzigen Interaktionsmodi, bis Voice auftauchte und das Bild radikal veränderte.

Als die ersten Lautsprecher mit Sprachassistenten auf den Markt kamen, war der Lautsprecher für uns der Ort, an dem wir mit dem Sprachassistenten in Kontakt treten konnten. Gewissermaßen fühlte es sich so an, als würden unsere KI-Freunde nur innerhalb des Lautsprechers leben. Plötzlich jedoch wurden sprachgesteuerte Interaktionen in immer mehr Produkten integriert, wie beispielsweise in Smartphones, Kopfhörern, Smartwatches und sogar in Kühlschränken. Dadurch erleben wir die Vorteile und die Zeitersparnis von Voice-Interaktionen und werden Zeuge davon, wie Voice zunehmend haptische Bedienungsformen ersetzt.

Die Bedienung über Voice ist nun also nicht mehr nur ein Produkt von Amazon oder Google, sondern ein Modus/eine Schnittstelle an sich. Und so nehmen wir sie inzwischen auch wahr.

smart-phone-lying-on-a-white-surface-with-an-open-screen-and-voice-assistant-on

Thanks to Omid Armin for sharing his/her work on Unsplash

Warum wir uns auf Navigationsbefehle über Voice konzentrieren sollten

Stellen Sie sich vor, Sie würden Ihrem Smartphone einfach sagen: “Hey Assistent, schreibe Oana auf WhatsApp: Ich bin auf dem Weg.“ Das würde Ihnen Einiges an Zeit ersparen, oder?

Die größte Herausforderung für unsere Sprachassistenten liegt in der User Experience – also in der Software und nicht der Hardware, dem Gerät, in dem wir sie finden. Und genau deswegen macht es aufgrund der Vorteile dieses neuen Modus Sinn, dass wir weiter daran arbeiten, Voice in unser gesamtes Ökosystem zu integrieren. Insbesondere bei In-App-Suchen und bei der Navigation sind Sprachbefehle meist schneller und intuitiver als Klicken oder Tippen.

Bei einem Clubhouse-Event mit Danny Bernstein (Managing Director, Partnerships for Google Assistant) und Brett Kinsella (Gründer und CEO von Voicebot.ai) verriet Danny, dass die diesjährige Strategie für den Google Assistant darin besteht, den Sprachassistenten vollständig in das Smartphone-Ökosystem zu integrieren. Die Idee dahinter ist, dass man Apps durch Sprachkommandos öffnen kann und diese auch in den Apps nutzen kann. Bei Google heißt dies In-App Actions, aber die dahinter liegende Technologie ist Deep Linking. Deep Linking ist eine der wichtigsten Methoden, um unsere Assistenten noch hilfreicher zu machen.

Die aktuelle User Experience erlaubt es dem Benutzer noch nicht, zu verstehen, welche Funktionen unsere Sprachassistenten vollständig unterstützen können. Wenn es uns aber gelingt, haptische Befehle in Voice-Navigationsbefehle zu übersetzen, können wir die User Experience des Assistenten verbessern.

Momentan klicken wir uns noch durch die Apps auf unserem Smartphone, öffnen Netflix, suchen nach der Serie, die wir letztes Mal geschaut haben und tippen auf das Streaming-Symbol, um die Sendung auf den Fernseher zu übertragen. Stellen Sie sich vor, Sie könnten stattdessen einfach zu Ihrem Smartphone sagen: „Hey Assistent, spiele die letzte Serie, die ich auf Netflix gesehen habe, auf dem Fernseher ab.“

infographic-showing-a-user-journey-comparing-voice-and-touch

Wir gehen aktuell davon weg, zwischen mehreren Geräten hin und her zu wechseln und sagen stattdessen einfach dem Assistenten, was wir brauchen. Bei der Übersetzung von haptischen Bewegungen in Sprachbefehle geht es darum, die dem Benutzer bereits bekannten Gesten in Worte zu fassen. Die Technologie-Branche ist bereits am Ziel angekommen und unser Fokus als Conversational Designer ist es nun, reibungslose und effektive Befehle und Customer Experiences zu schaffen.

Die Bedeutung einer multimodalen/Multidevice-Strategie

Voice, Touch und visuelle Ein- und Ausgaben sind verschiedene Modi der Kommunikation und des Informationsempfangs im Umgang mit unseren Geräten. Dies wird als Multimodalität bezeichnet. Multidevice ist die Kommunikation zwischen den einzelnen Geräten. #Voiceonly Ein- und Ausgaben, die also nur auf Voice basieren, schränken unsere Experience ein. Wenn Sie stattdessen Voice als zusätzlichen Kanal nutzen, der die anderen Modi unterstützt, wird eine erfolgreiche Interaktion mit Ihrer Technologie deutlich wahrscheinlicher.

Wir können das volle Potenzial von Voice nur dann ausschöpfen, wenn wir sie als weiteren Modus integrieren. Voice sollte keine App sein, sondern eine integrierte Schnittstelle. Genau wie das Berühren eines Bildschirms oder einer Tastatur.
/ Sara Oliver

Wie bereits erwähnt, sind wir an Haptik und visuelle Elemente gewöhnt. Spinnen wir diesen Gedanken nun weiter und stellen uns das Smartphone als Erweiterung unseres Körpers vor. Das Handy folgt uns überall hin und wir können damit fast alles steuern. Das Smartphone ist zu einer vollwertigen Fernbedienung geworden, insbesondere im Bereich Smart Home.

Dienste, die es uns ermöglichen, Inhalte vom Handy oder Tablet über ein WLAN-Netzwerk oder Bluetooth an andere Geräte zu senden, erfreuen sich großer Beliebtheit. (Beispiele: Spotify Connect, Airplay, Chromecast). Betrachten wir zum Beispiel das neue Konzept, das Samsung für seine neuen Smartfernseher vorgestellt hat: Fernseher und Smartphone sollen sich nun gegenseitig ergänzen. Der Fernseher ist kein reiner Fernseher mehr, so wie das Handy nicht nur zum Empfangen von Nachrichten und zum Telefonieren da ist. Jedes einzelne Gerät, das wir besitzen, ist nun ein Portal ins Internet.

Multimodalität und Multidevice sind spannende Themen, und können Ihrem Unternehmen weiterhelfen. Sie heben die User Experience auf ein völliges neues Niveau im Bereich Kundenbindung und Immersion. Aber dafür zu designen ist keine einfache Aufgabe, die eine Person allein bewältigen kann. Was Sie brauchen ist ein engagiertes und multidisziplinäres Team. Ein Team bestehend aus User Experience Designer*innen, Grafikdesigner*innen, Sprachwissenschaftler*innen und Entwickler*innen, die alle gemeinsam daran arbeiten, die bestmögliche Integration und Interaktion für Ihre Kund*innen zu koordinieren, zu kuratieren und zu schaffen.

Die große Chance für Multimodalität und Multidevice

Die Voice-Industrie wuchs bereits vor der Pandemie rasant an, doch die aktuelle Situation hat dieses Wachstum noch einmal beschleunigt. Voice ist das eine neue Element, mit dem wir unsere alltägliche Umgebung völlig neu entdecken können.

Momentan müssen wir vor allem bessere Kontrollmöglichkeiten für unsere Systeme und bessere Customer Experiences entwickeln. In diesem Jahr werden wir uns darauf konzentrieren, unsere Assistenten erfolgreich in all unsere Geräte (Smartphone, Haushaltsgeräte, Automobilsysteme und Wearables) zu integrieren, um eine reibungslose multimodale und Multidevice-Experience zu ermöglichen.

Dennoch müssen wir auch die grundlegende Experience unserer Assistenten verbessern, um die Zuverlässigkeit und das Vertrauen in ihre Kernfunktionen zu erhöhen. In diesem Jahr geht es darum, sich auf die Verbesserung spezifischer Anwendungsfälle und deren Konsistenz zu konzentrieren.

Lassen Sie uns gemeinsam bessere Voice-, multimodale und Multidevice-Experiences für Ihre Nutzer*innen entwickeln. Schicken Sie uns gerne eine Nachricht mit Ihren Ideen, oder abonnieren Sie unseren Newsletter, um bei Voice, Multimodalität und anderen Trends auf dem Laufenden zu bleiben.

Übersetzt von Julia Pflüger / Voice User Interface Architect bei VUI.agency

Share via