KI im Kundenservice: Wie Voice Services die Kundenbeziehung optimieren

Kundenservice kommt in Zukunft nicht an Natural Language Processing (NLP) vorbei – oft per Schnittstelle zu Alexa, Siri, Google Assistant, Cortana und Co. Warum sind Conversational Interfaces the next big Thing“  im Kundenservice?Smart Speaker

Warum KI-Sprach-Services wichtig werden

Tippen oder Swipen im Kundendialog waren gestern. Nutzer interagieren zunehmend in natürlicher, gesprochener Sprache mit Unternehmen und deren Services. Denn schon in gut einem Jahr werden 30 bis 50 Prozent der weltweiten Suchanfragen nur noch gesprochen werden, prognostizieren Gartner und comScore. Dies geschieht derzeit noch eher über Chatbots und künftig immer häufiger über Conversational Interfaces und Sprach-KI. Diese zielen darauf ab, eine relevante Konversation mit echten Menschen nachzuahmen. So ersetzt immer häufiger ein schneller, bequemer, intuitiver, persönlicher und damit besserer One-to-one- und Voice-Dialog eine eher komplizierte, händische Navigation. Dann erhalten Nutzer, die sich für die Spracheingabe entscheiden, idealerweise die für sie zielführendsten Antworten in gesprochener Form.

Voice-Services haben das Zeug, zu einem mächtigen (Branding-) Werkzeug für Business-Prozesse aufzusteigen. Vorausgesetzt, sie sind in der Lage, Kundenerwartungen im One-to-one-Dialog zu erkennen, zu erfüllen oder sogar überzuerfüllen. Das gelingt, indem sie sich als animierend und wertschöpfend erweisen. Indem sie Nutzer entlang der gesamten Customer Journey unterstützen und begleiten. Idealerweise sorgen sie dabei für eine End-zu-End-Verschlüsselung der laufenden Kommunikation, um der Datensicherheit Rechnung zu tragen und Nutzern so ein gutes Gefühl zu geben.

Was Conversational Interfaces leisten

Technisch untersuchen Conversational Interfaces in Gestalt virtueller Sprachassistenten gesprochene Fragen und Ansagen („Alexa, wie lautet …?“ oder „Such mir die besten …!“). Das ist ein KI-Thema, denn: Hier verarbeitet NLP die in Text transkribierte Sprache. Natural Language Understanding (NLU) analysiert die aufbereiteten Daten. So gelingt es, beispielsweise innerhalb einer Wissensdomäne, über eine firmeneigene Alexa- oder Google-Assistant-App, relevante verbale Antworten zu finden – und diese wieder über Conversational Interfaces Alexa, Siri, Google Assistant, Cortana, Watson oder Viv auszugeben.

Allerdings verfügen nicht alle gängigen Sprachassistenten über genügend Intelligenz, um jedwede Frage zu beantworten. Auch das hinterlegte Wissen, etwa über Wetter, Reisen oder Events, ist unterschiedlich stark ausgeprägt.

Funktional gilt: Je rudimentärer Grund- und Themenwissen ausfällt, desto eher geben Sprachsysteme Satzstrukturen mit variablen, frei definierbaren Teilen vor, etwa eine Produktfarbe. Hat der Kunde seinen Wunsch artikuliert, analysieren die Systeme den gesprochenen Satz. Zunächst ordnen sie ihn einer Struktur zu. Ziel ist es, die Variable beispielsweise mit einer Kaufabsicht eines Produkts zu verknüpfen. So gelingt es einem Sprachdienst, passende Kaufangebote abzuleiten. Ein Beispiel: Variable rot ergibt zusammen mit der Kaufabsicht rote Schuhe. Was wir im allgemeinen Sprachgebrauch demgegenüber mit KI assoziieren, geht darüber hinaus. Hier versuchen Systeme über Semantik und Semiotik, den Sinn des Artikulierten zu verstehen. Beide Systematiken (Satzstrukturanalyse vs. Sinnanalyse) veranschaulichen, dass die Bandbreite an „Intelligenz“ – vom einfachen, geskripteten Bot ohne Gedächtnis bis hin zu einer dialogischen, nahezu „beseelten“ KI – riesig ist. Innerhalb dieser Bandbreite unterschiedlich gestalten sich die am Markt verfügbaren Sprachassistenz-Systeme. Ein Überblick über die gängigsten Systeme:

Welche Ansätze Alexa, Viv, Watson, Google, Siri und Cortana im Umgang mit externen Entwicklern verfolgen

  • Alexa von Amazon: Bei dem am weitesten verbreiteten Amazon-Speaker Alexa existieren bislang nur oberflächliche Wissensdomänen. Diese bleiben externen Entwicklern gegenüber verschlossen. Auch wenn Alexa nicht perfekt für komplexe Fragestellungen geeignet ist, reagiert das Amazon-System sehr schnell auf Fragen.
  • Viv von Samsung: Die Sprachlösung ist zwar noch nicht besonders etabliert, aber interessant für Entwickler. Viv greift auf einen umfangreichen Wissensfundus zurück, weil Samsung offen dafür ist, dass externe Entwickler Vivs Wissensbasis erweitern. So führt das System verschiedene Wissensdomänen zusammen und erlangt perspektivisch riesiges Potenzial beim Verständnis beliebig komplexer Sätze.
  • Watson von IBM: Unterdessen müssen Entwickler bei Watson von IBM ihre eigene Wissensbasis einbringen. Watson bringt indes Transkriptions- und Textanalyse-Werkzeuge ein.
  • Google Assistant und Duplex: Google verknüpft bei seinem Google Assistant verschiedene Wissensdomänen, sodass das Produkt Google Duplex im telefonischen Kundendialog selbstständig und per Echtzeit-Rückfragen beispielsweise Frisörtermine oder Restaurantreservierungen mit Kunden vereinbart. Dazu greift der virtuelle Assistent nicht nur auf Domänenwissen, sondern beispielsweise auch auf den Unternehmenskalender zu.
  • Siri von Apple: Das System arbeitet daran, breite Wissensbasen zu analysieren.
  • Cortana von Microsoft: Das System merkt sich, sofern vom Nutzer gewünscht, dessen Vorlieben und greift auf das Wissen von Microsofts Suchmaschine Bing zu.


Tim Kahle_KI-based-Services

Tim Kahle: „Künftig werden sich digitale Inhalte an den sprachlichen Belangen des Nutzers ausrichten – basierend auf Ort, Zeit, Nutzerprofil, Metadaten und Umgebung“


 

Welches Voice-System für welche Business-Anforderung?

Ob Alexa oder Watson, ob Siri oder Viv: Laut Experten gibt es lediglich passende oder unpassende Nutzungsgebiete der verschiedenen Lösungen, an die Unternehmen mit ihren Voice-Services per Schnittstelle andocken können. Am Ende entscheidet das richtige Einsatzgebiet darüber, ob die jeweiligen Voice-Systeme Kundenwünsche tatsächlich adressieren können.

Wann Sprachsysteme den Kundenwunsch erkennen

Klickten sich User früher mühsam durch scheinbar undurchdringliche Beratungs- und Checkout-Menüs, teilen sie einem sprachbegabten System inzwischen lapidar mit, was sie eigentlich wollen („Intent“). Das tun sie buchstäblich, wie ihnen der Schnabel gewachsen ist. Im Idealfall interpretiert das Sprachsystem das Kundenbedürfnis richtig. Und es skizziert die passende Lösung. Dazu müssen Sprachsysteme komplexe, variierende Satzkonstruktionen des Sprechenden verstehen. Sie müssen dabei alle Wunschparameter abgreifen – möglichst ohne diese in einer laufenden Konversation wieder zu vergessen. Und ohne die Zusammenhänge zu verdrehen.

Beispiel: Vom Bankomaten zur Banking-Voice-App

Banking-Kunden, können über eine sprachbasierte Banking-App, die sich zum Beispiel an die Alexa-Infrastruktur anflanschen lässt, nicht nur einen Kreditkartenmissbrauch melden. Darüber hinaus haben sie die Möglichkeit, ihren Verfügungsrahmen zu ändern oder sich die letzten Kontotransaktionen verbal durchgeben zu lassen. Teilweise sind zusätzliche Sicherheitsangaben erforderlich („Kennwort“ zur Drei-Faktor-Authentifizierung). Und auch in anderen Branchen gibt es zu Hauf Service-Anforderungen, die durch effektive Voice-Services besser werden dürften. Dazu müssen Organisationen jedoch selbst konversationsfähig werden, rät Prof. Peter Kabel, der an der Hamburger Hochschule für Angewandte Wissenschaften (HAW) Interaction- und Servicedesign lehrt, im Interview „Sprach-KI: „Conversational Interfaces legen zu“. Wichtig ist demnach ein zielführender Dialog abseits hölzerner IVR-Lösungen aus dem Call-Center („Wenn Sie … wählen Sie die Fünf … Ich habe Ihre Eingabe nicht verstanden …”). Für Unternehmen, die diesen Knackpunkt lösen wollen, bietet sich die Chance, mit Voice-Services effektiv und in attraktiver Weise durch Dialoge zu führen. Dadurch können die Unternehmen nicht nur aktiv verkaufen. Indem sie Kunden die relevanteste Option anbieten und für ein nützliches Kundenerlebnis sorgen, schaffen sie es, Nutzer an ihre Marke zu binden. Mit welchen Maßnahmen diese Voice-Experience gelingt, veranschaulichen die folgenden Faktoren:

Vier Ansätze, wie Voice-Lösungen effektiver werden

    • Klar und einfach: Purna Virji, Senior Manager of Global Engagement bei Microsoft, empfiehlt Unternehmen beispielsweise, ihren Voice-Service-Nutzern erstens klare Entscheidungsoptionen vorzugeben. Sie sollten ihre Sprachnavigation schnell, emotional und intuitiv aufzubauen – eher für die Persona des einfach gestrickten „Homer-Simpson“-Nutzers als für den eloquenten „Lisa“-User.
    • Charaktervoll: Die Managerin rät zweitens dazu, Voice-Apps mit Persönlichkeit zu entwickeln. Dazu zählt nicht nur ein konsistentes Corporate Wording. „Versuchen Sie dabei jedoch nicht, Nutzer glauben zu machen, diese würden mit einem echten Menschen interagieren, wenn sie Ihren Voice-Service nutzen“, warnt Virji.
    • Empathisch: Drittens brauche selbst ein Banking-Bot ein Herz – etwa, um Kunden als eine Art Advokat davor zu warnen, dass sie mit der angestrebten Transaktion ihr Konto zu überziehen drohen. Mit Herz meint Virji aber auch Services, die Small Talk und „rhetorisches Grunzen“ (etwa zustimmendes „Hmm“) beherrschen. Oder die auch einmal zu einem Scherz aufgelegt sind.
    • Konstruktiv: Können Conversational Interfaces tatsächlich einmal einen Wunsch nicht erfüllen, etwa weil Produkt X vergriffen ist, sollten sie viertens eine Alternative vorschlagen. Ist eine Serviceanfrage des Kunden nicht eindeutig, sollte das Sprachsystem das Verstandene wiederholen. Zusätzlich sollte es um eine Bestätigung bitten und ganz konstruktiv den nächsten Schritt im Prozess vorschlagen. „Das Geheimnis eines effektiven Conversational Interface liegt darin begründet, bei der Konzeption natürliche Gesprächselemente zu berücksichtigen“, resümiert Virji.

Ausblick: Voice-Optionen fürs One-to-one-Marketing – Kontext und Beziehung essenziell

„Künftig werden sich digitale Inhalte stärker an den sprachlichen Belangen des Nutzers ausrichten – basierend auf Ort, Zeit, Nutzerprofil, Metadaten und Umgebung“, erläutert Tim Kahle, Geschäftsführer der auf Alexa- und Google-Assistant-Skills spezialisierten Agentur 169 Labs. Wer beispielsweise den Dienst Android Auto für seine Navigation nutzt, erhält im Sinne des One-to-one-Marketings kontextbasierte Empfehlungen von der KI Google Assistant. „Die jeweiligen Dialoge werden stark personalisiert sein – je nach Dauer, Intensität, Tiefe der Beziehung und Sprachniveau sowie Alter und Milieu des Interessenten und Kunden“, prophezeit Kahle. Aber auch Nutzungszeit, Aufenthaltsort des Users oder gar Kühlschrankfüllstand werden bei Voice-Services eine immer wichtigere Rolle spielen.

Dazu braucht es passende und maßgeschneiderte Sprachdialoge. Dies gehen auf Kundenwünsche ein. Sie bestätigen einen Kauf bestätigen. Sie berücksichtigen Änderungswünsche. Sie informieren über Liefer-Stati geben. Oder sie unterbreiten automatisch relevante Angebote. Und in der Kür fassen sie mehrere Fragen und Wünsche in einer Antwort zusammenfassen. Dazu brauchen es historische Daten, außerdem NLP, NLU und Künstliche Intelligenz.

Schon heute ist es beispielsweise möglich, dass Systeme erkennen, welche ihrer registrierten User gerade sprechen. Dies wird besonders spannend bei größeren Nutzerkreisen in Firmen oder im Smart-Home-Sektor werden. Hier wird sich die Königsklasse der Voice-Service-Anbieter vermutlich bald mit Dringlichkeiten, Stimmungen und Vorlieben beschäftigen, die sich über Stimme und Stimm(ungs)lage erkennen lassen.

Fazit: Voice-Services verbessern Markenbezihung und Erstlösungsquote

Aber auch ohne Emotionserkennung werden trainierte Sprachlösungen die Erstlösungsquote im Kundenservice steigern helfen. Gleichzeitig sinken im Idealfall die Kosten im telefonischen First-Level-Support. Aber Achtung: Laut einer aktuellen Studie der London Goldsmiths University sind Organisationen, die auch in Mitarbeiterentwicklung investieren um rund 31 Prozent produktiver als jene, die sich ausschließlich auf Automatisierung stützen, um menschliche Tätigkeit durch Maschinenarbeit wie Voice-Services zu ersetzen.

Voice-Services stehen noch ganz am Anfang. Sohan Maheshwar, Alexa Evangelist bei Amazon, prophezeite kürzlich dem Branchendienst Tech Wire Asia, dass sich hier in nächster Zeit viel bewegen wird, um die Markenbeziehung zu Kunden nachhaltig zu verbessern: „Wir kratzen derzeit noch an der Oberfläche der sogenannten Voice Experience.“

 


 

Mehr Wissen, Methoden, Trends und Insights

Digital Services mit dem Fokus auf Customer Experience kommen auch bei den virtuellen Weiterbildungsprodukten von AVADO Learning zum Tragen unter anderem bei Drive Digital, dem virtuellen Kurs, der Denk- und Arbeitsweisen verändert. Machen Sie sich selbst ein Bild:

Mehr zu AVADO Learning  und Drive Digital gibt es hier. 

Geschrieben von

Kristina Schreiber

Kristina Schreiber war bis April 2018 Senior Corporate Editor bei AVADO Learning. Sie schreibt seit fast zwei Dekaden über Digitalisierung und Marketing, vormals u.a. für absatzwirtschaft, acquisa, Adzine, Internet World Business und ONEtoONE. Kristina brennt für Data-, Analytics- und Tech-Themen ebenso wie für disruptive Geschäftsmodelle und kulturellen Wandel.