Zum Hauptinhalt springen

Sound in Voice User Interfaces – die Perspektive eines Soundarchitekten

Sound in Voice User Interfaces – die Perspektive eines Soundarchitekten

Der Aufstieg der Sprachassistenzsysteme fühlt sich aus der Sicht eines Soundarchitekten wie ein wahrgewordener Traum an: ein Interaktionsmodell wird zum „Mainstream“, bei dem Sound die primäre Kommunikationsmodalität zwischen Mensch und Maschine ist. Ich war überzeugt, dass Sound endlich eines der ersten Dinge sein wird, an das die Marken-, Produkt-, und Projektmanager*innen denken, wenn sie in die Welt der Sprachassistenz eintauchen. Wie sich aber herausstellt, so scheint Sound immer noch allzu oft nur ein nachträglich berücksichtigtes Element  zu sein, anstatt ein integraler Bestandteil vieler Voice Experiences. 

Ich habe einige Hypothesen, warum dies der Fall ist. Diese Hypothesen möchte ich nutzen, um einige Aspekte der Arbeit als Soundarchitekt im Voice Bereich zu erörtern.

VUI.blog – Sound in Voice User Interfaces – illustration of a brain

Hypothese 1: Die wohl bewussteste Art der Wahrnehmung ist unsere Sehkraft.

Sound hingegen wirkt oft unterbewusst und ist deshalb nicht der erste Aspekt, an den man bei der Gestaltung eines Produktes oder einer Marke denkt.

Ironischerweise ist dieser mögliche Grund warum Sound oft wenig oder nur nachträglich berücksichtigt wird, gleichzeitig eine der großen Stärken von Sound. Dem sind sich auch Filmproduktionen und Game Design Studios äußerst bewusst. Wenn der Sound gut durchdacht ist, wird er zu einem integralen Bestandteil des Erlebnisses, kann die Emotionen der Zuschauenden und Zuhörenden stark beeinflussen und einen Mehrwert schaffen. Man denke nur an den kultigen James Bond Sound oder die Geräusche von R2D2, die dem kleinen Roboter aus Star Wars einen menschenähnlichen Charakter verleihen, ganz zu schweigen von der Stimme von Darth Vader.

Die positiven Auswirkungen, die Sound in Filmen und Videospielen hat, können auch beim Branding, Produktdesign und insbesondere bei sprachgesteuerten User Interfaces genutzt werden. 

Wenn Marken über die Entwicklung oder Integration von Sprachtechnologie in ihre Produkte nachdenken, kommen sie unweigerlich an einen Punkt, an dem sie definieren müssen, wie sie klingen wollen. Diese Frage nach dem passenden Sound wird im Bereich des Sonic Branding beantwortet, welcher in den letzten Jahren aufgrund der Entwicklung in der Voice Industrie zu Recht einen unglaublichen Aufschwung erlebt hat.

Verstehen Sie mich nicht falsch: Sonic Branding war schonwichtig bevor intelligente Sprachassistenten zu einem festen Bestandteil des Lebens der Menschen wurden, aber jetzt ist Sonic Branding eine absolute Notwendigkeit, wenn man als Marke gehört werden möchte. 

Es gibt eine Fülle von Informationen darüber, wie man mit Sonic Branding beginnen kann und wie eine akustische Strategie einem Unternehmen Geld sparen, Markenwert aufbauen, und den Wiedererkennungswert oder das Vertrauen steigern kann.  

Eine großartige Ressource und Übersicht wie Marken zur Zeit Sonic Branding kontaktpunktübergreifend implementieren ist beispielsweise das „Best Audio Brands“ Ranking der Firma amp sound branding

VUI.blog – Sound in Voice User Interfaces – sonic strategy benefits

Zusammenfassend lässt sich sagen, dass Marken ohne Sound Strategie, die nur vorgefertigte synthetische Stimmen und keine anderen akustischen Elemente verwenden, auf einem primär auditiven Interface untergehen werden. Darüber hinaus muss eine Marke eine kohärente Sound Strategie entwickeln und umsetzen, um über alle Berührungspunkte hinweg gehört und wiedererkannt zu werden, nicht nur im Voice Bereich.

Nur dann kann der Sound dazu beitragen, dass eine Marke sich in den Köpfen der Kund*innen festsetzt. Der Voice Bereich bietet sich allerdings als perfekter Einstieg an, um mit dem Sonic Branding einer Marke zu beginnen.

Hypothese 2: Bei der Entwicklung von Sprachprodukten gibt es dringendere technologische Herausforderungen,

die weniger Ressourcen für ein ausgeprägtes Sound Design lassen. 

Die Entwicklung von Produktmanager*innen und Designer*innen, welche sich der Bedeutung des Sounds in sprachgesteuerten User Interfaces immer bewusster werden, kann mit der Entwicklung von Webseiten oder anderen visuellen Interfaces verglichen werden, als diese als neue Technologien aufkamen. Die textlastigen und abschreckenden Designs wurden nach und nach zu einer nahtlosen und schlichten Experience für Nutzende des World Wide Webs. Toptals post über die Zukunft der Schnittstellen zeigt beispielsweise auf, wie dieser Wandel durch technologische Fortschritte und Erwartungen der Nutzenden vorangetrieben wird.

Ich erwarte eine ähnliche Entwicklung im Voice Bereich, nämlich weg von ungebrandeten, informationslastigen, menügesteuerten Sprachinteraktionen hin zu maßgeschneiderten, gefühlvollen und mühelosen Unterhaltungen, oder wie wir es bei VUI.agency bezeichnen würden: Assistenten mit auditivem Charisma.  Dieser Übergang wird zum Teil durch den technologischen Fortschritt vorangetrieben, aber auch das Ausnutzen der Stärken von Klang spielen dabei eine wichtige Rolle. 

Hypothese 3: In der Branche herrscht ein Mangel an Wissen darüber, was Sound  alles leisten kann,

wenn es darum geht, die emotionale und funktionale Seite von Sprachassistenten zu unterstützen.

Funktionale Klänge sind wahrscheinlich die bekannteste Form des akustischen Feedbacks, um Nutzende durch ein Gespräch oder eine Produktinteraktion zu führen: 

Funktionale Sprachausgabe

sie können die Sprachausgabe verkürzen oder sogar ersetzen (nicht umsonst gibt es bei Alexa und Google Home einen Kurzmodus) 

Information und Aufmerksamkeit

sie können weitere Informationen vorbereiten und die Aufmerksamkeit der Nutzenden wecken, genau wie die Benachrichtigungstöne von Messenger-Diensten. 

Belohnung

sie können belohnend sein, wenn man etwas erreicht hat, man denke z. B. an Videospiele. 

Transparenz

sie können dazu beitragen, das Produkt hinsichtlich interner Prozesse transparenter zu gestalten, z.B. in dem sie anzeigen, wann das Interface mit dem Zuhören beginnt und wann es aufhört, oder wann Informationen geladen werden. 

Dies sind nur einige Beispiele. Ein weiterer Blog-Beitrag über funktionale Klänge in sprachgesteuerten User Interfaces wird folgen, der sich mit allen oben genannten Aspekten befassen wird. Für interessierte Lesende, die nicht bis dahin warten können, gibt es in „Designing with Sound“ von Amber Case und Aaron Day großartige Abschnitte über funktionale Klänge. Das Buch bietet zudem einen ausgezeichneten Überblick darüber, wie Sound das Produktdesign verbessern kann. 

Soundscapes

Sogenannte Soundscapes sind eine weitere Möglichkeit, um Sound im Voice Bereich zu nutzen. Sie verbessern die User Experience erheblich, indem sie beispielsweise den Ton für einen ganzen Gesprächsabschnitt vorgeben. Sie können auch Teile eines Gesprächs hervorheben, wofür wir in einem realen Szenario vielleicht Gestik oder Mimik verwendet hätten, um unsere Botschaft zu übermitteln. 

Ein ganzer Bereich namens Sonification erforscht ebenfalls, wie wir Daten oder Informationen in eine auditive Form übersetzen können. Wenn Sie also das nächste Mal Ihren Nutzenden bestimmte Informationen über den auditiven Kanal vermitteln möchten, schauen Sie mal im „Sonification Handbook“ nach und zögern Sie nicht, mit uns zu sprechen.

Ich möchte darauf hinweisen, dass es bei auditivem Feedback absolut entscheidend ist, dass Ihr Sound den Nutzenden die beabsichtigten Informationen vermittelt, sei es auf einer unbewussten oder einer bewussten Ebene, aus einer kognitiven oder affektiven Perspektive. Ein Warnschild, das nicht wie ein Warnschild aussieht, verfehlt höchstwahrscheinlich seinen Zweck. Ein Warnschild, das wie ein Warnschild aussieht, aber nicht auf eine Gefahr hinweist, schafft eine schlechte User Experience. Das Gleiche gilt für Geräusche; ein Alarm, der nicht wie ein Alarm klingt, verfehlt höchstwahrscheinlich seinen Zweck. Ein Alarm, der wie ein Alarm klingt, aber nicht auf einen Alarm hinweist, schafft eine schlechte User Experience. Das Entwerfen sinnvoller Sounds ist allerdings ein Thema für einen weiteren Blog-Beitrag. 

Hypothese 4: Die Unternehmen wissen um die Macht von Sound

und würden sich diese gerne  zu Nutze machen, wissen aber nicht, wie und wann sie Sound am besten im Prozess mit einbeziehen sollen. 

Ich bin mir sicher, dass zumindest einige von Ihnen (wenn nicht sogar die Mehrheit) wahrscheinlich dachten: „Soundarchitekt? Was ist das, und was kann man damit machen?“. Um ehrlich zu sein, musste ich nicht nur meiner Großmutter erklären, womit ich meinen Lebensunterhalt verdiene, sondern auch gleichaltrigen in meinem Freundeskreis. Ich werde also versuchen, in ein paar Worten zu erklären, was meines Erachtens die Aufgaben von Soundarchitekt*innen sind. Gute Soundarchitekt*innen verfolgen, ähnlich wie echte Architekt*innen, einen multidisziplinären Ansatz, um ein bestimmtes Ziel zu erreichen.

Während Architekt*innen Design-, Ingenieur- und Kommunikationsfähigkeiten (neben anderen Fähigkeiten) kombinieren, um etwas zu bauen, berücksichtigen Soundarchitekt*innen Aspekte aus den Bereichen Sound Design, Mensch-Maschine-Interaktion, Sonic Branding und Sound Engineering, um ein Sound Konzept zu entwickeln und die Umsetzung des bestmöglichen und gewünschten Produkterlebnisses zu begleiten. Wenn Sie also einen Sprachassistenten mit auditivem Charisma entwickeln wollen, sollten Sie Sound von Anfang an mit einbeziehen und als integralen Bestandteil des Projekts betrachten. Er wird sich nahtlos in den Prozess einfügen.  

Ich hoffe, Sie konnten einige Erkenntnisse darüber mitnehmen, wie Sound Ihre Voice Experience verbessern kann und warum es eine gute Idee ist, ihn von Anfang an als wesentliches Element jedes Voice User Interfaces zu betrachten. Wenn Sie mehr wissen möchten, beantworten wir gerne Ihre Fragen

Autor*innen

Übersetzt von -