Wenn aus einem Zukunftsszenario Wirklichkeit wird: Mit dem Megatrend „Voice“ hat die Evolution der Mensch-Maschine-Kommunikation einen neuen vorläufigen Höhepunkt erreicht. Das ist vor allem dem Siegeszug der Smart Speaker geschuldet, denn sie haben einen entscheidenden Anteil daran, dass sich die natürlich-sprachliche Interaktion mit Computern rasant weiterentwickelt.
Aber auch Sprachassistenten in Autos oder auf Smartphones sind Teil unseres Alltags geworden. In diesem Jahr werden voraussichtlich 1,8 Milliarden Menschen Sprachassistenten nutzen. In Deutschland haben bereits 60 Prozent der Menschen mindestens einmal einen Sprachassistenten benutzt. 18 Prozent also rund 15 Millionen Menschen, bezeichnen sich selbst sogar als Intensivnutzer.
Nutzerakzeptanz von Sprachassistenten
Smart Speaker bedienen dabei vor allem das Bedürfnis der Anwender nach möglichst viel Convenience. Natürlich kann man genauso gut das Handy nutzen, um seine Playlist oder seine Smart-Home-Geräte zu steuern oder um die Wetter-App aufzurufen. Aber das erfordert das Suchen und Herausholen des Handys, man muss es entsperren, die richtige App finden und gegebenenfalls umständlich Einstellungen vornehmen. Dem Smart Speaker dagegen kann man seine Anweisungen einfach und direkt erteilen, indem man „in den Raum“ spricht.
So entwickelt sich dank der massentauglichen Steuerung von Geräten und Software eine zeitgemäße Kommunikation mit natürlicher Sprache. Das wiederum sorgt für positive Erfahrungen bei den Nutzern und lässt ihre Erwartungen an Customer Journeys in allen Lebenslagen weiter wachsen – auch in der Versicherungsbranche.
Als Top-Akzeptanzkriterien für die Nutzung von Sprachassistenten lassen sich die folgenden drei Punkte destillieren: Wurde die Spracheingabe mit hoher Zuverlässigkeit korrekt verstanden? Wurde das Anliegen zufriedenstellend beantwortet und gelöst und wurde ein weitgehend natürliches Spracherlebnis erreicht?
Insbesondere beim zweiten Akzeptanzkriterium der zufriedenstellenden Beantwortung des Anliegens haben allgemein ausgerichtete Sprachassistenten wie Siri oder Alexa einen großen Nachteil. Sie sind für sogenannte Ask-me-Anything-Szenarien konzipiert, also den Versuch, jede denkbare Frage des Anwenders zu verstehen und zu beantworten.
Auf die Anbindung kommt es an
Spezifische Anwendungsfälle, wie zum Beispiel die Meldung eines Versicherungsschadens, lassen sich von solchen generischen Assistenten kaum oder gar nicht abbilden. Um bei diesen Anwendungsfällen erfolgreich zu sein, bedarf es nicht nur spezifisch trainierter KI-Modelle, sondern auch eines tiefen Verständnisses der fachlichen Regeln und Prozesse.
Und der beste Sprachassistent für Versicherungen nützt nichts, wenn er nicht an die häufig komplexen Verwaltungssysteme der Versicherer angebunden ist.
Use Cases in der Versicherungsbranche
Fachlich gut trainierte Sprachassistenten eignen sich insbesondere auch für den Einsatz im Kundenservice und Vertrieb von Versicherungen, wo sie echten Mehrwert schaffen können. Mögliche Szenarien sind etwa der Beratungsassistent, der Schadenassistent oder der Umzugsassistent.
Beratungsassistenten können beispielsweise zum Einsatz kommen, wenn Nachwuchs erwartet wird und der Versicherungsschutz auf die wachsende Familie angepasst werden muss. Schadenassistenten eignen sich etwa für Kfz- oder Sachversicherung.
Und Umzugsassistenten können Tipps und Ratschläge beim anstehenden Umzug geben. All diese Anwendungsfälle behandeln sehr konkrete Kundenanliegen. Sind die dahinter liegenden KI-Modelle entsprechend spezifisch trainiert, können sie Kunden sehr gut verstehen. Das sorgt dafür, dass die Anwender den Sprachassistenten von Beginn an akzeptieren.
Architektur eines Sprachassistenten
Heutige Sprachassistenten lassen sich aus vier Schichten aufbauen: Die Repräsentationsschicht, das User Interface, ist der Teil, den der Anwender wahrnimmt. Dabei wird die natürliche Sprache in Text übertragen. Die Antwort des Sprachassistenten erfolgt ebenfalls zunächst in Textform und wird dann als natürliche Sprache ausgegeben. Die Serviceschicht stellt verschiedene Services zur Verfügung, zum Beispiel basierend auf künstlicher Intelligenz (Intenterkennung) oder regelbasiert – wie die Anlage eines neuen Schadens.
Die Prozessschicht leitet den Anwender durch den Prozess. Dabei nutzt sie für jeden Prozessschritt die relevanten Services und entscheidet auf Basis der Angaben des Anwenders, welche Prozesswege durchlaufen werden. Die Integrationsschicht sorgt dafür, dass der Sprachassistent in die bestehende Anwendungslandschaft des Versicherers eingebunden wird und damit etwa Zugriff auf Kunden-, Vertrags- oder Schadendaten erhält.
Um eine sinnvolle, natürlich-sprachliche Kommunikation mit einem Sprachassistenten zu ermöglichen, muss er verschiedene KI-Methoden nutzen: Zunächst muss ein Sprachassistent natürlich „verstehen“, was der Anwender gesagt hat und auch in natürlicher Sprache antworten. Mittels des sogenannten Speech-2-Text-Verfahrens wird gesprochene Sprache in Schriftsprache transkribiert. Umgekehrt antwortet der Sprachassistent, indem er schriftliche in gesprochene Sprache umwandelt (Text-2-Speech-Verfahren) und den Text vorliest.
Das Wort „verstehen“
Das Wort „verstehen“ wurde bewusst in Anführungszeichen gesetzt, weil die reine Transkription des gesprochenen Worts noch nicht dazu führt, dass der Assistent auch wirklich begreift, was der Anwender ihm inhaltlich sagen will. Dafür ist es notwendig, die vom Anwender eingegebenen Sätze mittels Machine Learning mit Beispielsätzen abzugleichen (die KI wird „trainiert“) und Ähnlichkeiten festzustellen. Mittels dieser Intenterkennung kann der Assistent dann aus einer Anzahl vorgegebener Intents das Anliegen des Kunden herausfiltern und ihn somit „verstehen“.
Eine weitere KI-Methode sorgt dafür, dass der Anwender über seine Stimme identifiziert werden kann. Das wird mit so genannten biometrischen Stimmprofilen möglich. Damit wird der Hilfe suchende Anrufer eindeutig authentifiziert. Eine solche Lösung ist auch elementar, um etwa Zugriff auf persönliche (Versicherungs-)Daten zu gewähren. Die letzte besonders erwähnenswerte KI-Methode ist die Sentimenterkennung. Dahinter steckt die Frage, ob der Anwender beispielsweise verärgert oder erfreut ist. Möglich wird das zum einen durch die Erkennung bestimmter Signalwörter. Außerdem lässt sich die Stimmlage – – zum Beispiel zittrig, weil wütend – analysieren.
Zukunftsvision Interbot-Kommunikation
Zukunftsforscher sind, wie ihr Name schon sagt, einen weiteren Schritt voraus: Sie sprechen bereits über die Vision einer Interbot-Kommunikation. Darin kommunizieren Kunden nicht mehr direkt mit dem jeweiligen unternehmenseigenen Sprachassistenten.
Stattdessen geben sie ihr Anliegen ihrem eigenen, persönlichen Sprachassistenten mit, der dann wiederum mit den virtuellen Assistenten der Versicherungen kommuniziert.
Das ist ein sehr sinnvolles Szenario, denn jeder Deutsche hat statistisch gesehen zwischen fünf und sechs Versicherungspolicen, die in einem Großteil der Fälle auf mehrere Versicherungsunternehmen aufgeteilt sind.
Statt nun je nach Anliegen mit sechs verschiedenen Sprachassistenten von sechs Versicherern zu sprechen – das setzt voraus, dass der Kunde weiß, bei welchem Unternehmen er welche Versicherung hat – beauftragen Kunden in dieser Vision ihren persönlichen Versicherungsassistenten damit, beispielsweise ihre Versicherungssumme in der Hausratversicherung zu ändern.
Wenn die Vision Realität wird
Der persönliche Versicherungsassistent weiß, bei welchem Unternehmen die Hausratversicherung besteht, kennt die Versicherungsnummer und kann den Kunden mittels des biometrischen Stimmprofils gegenüber dem Versicherer authentifizieren und sein Anliegen mithilfe des Unternehmensassistenten umsetzen.
Es wird spannend sein zu sehen, ob diese Vision Realität wird. Die technischen Voraussetzungen gibt es bereits heute. Dagegen sprechen könnte jedoch die Verschiedenartigkeit der Produktmerkmale und Prozesse der Versicherer. Zudem haben sie sicherlich ein Interesse daran, weiterhin ihre eigenen Sprachassistenten einzusetzen – etwa um die Kommunikation so zu gestalten, dass neben der Bearbeitung des administrativen Kundenanliegens auch direkt Beratung zu weiteren Versicherungsprodukten einfließen kann.
Das Interbot-Szenario würde diese Chance verhindern, da der persönliche Assistent des Kunden vermutlich keinerlei Verständnis für die Vertriebs-Avancen seines Gegenübers aufbringen würde.
Die Autoren: Alexander Horn ist Associate Partner bei Q_PERIOR und leitet den Bereich Process Intelligence & Architecture. Fabian Wieland ist Senior Consultant im Bereich Bereich Process Intelligence & Architecture mit den Schwerpunkten auf dem Einsatz von KI und der Mensch-Maschine-Interaktion.