Gleich vorweg: KI ist natürlich kein neues Thema. Bereits seit Jahrzehnten beschäftigen sich Wissenschaftlerinnen und Wissenschaftler mit deren Entwicklung und Erforschung. Auch in der Versicherungsbranche sind KI-Systeme bereits in vielen Bereichen präsent – von der automatisierten Ermittlung von Risiko- und Kündigungsprognosen über personalisierte Empfehlungssysteme und Assistenten bis hin zur automatisierten Texterkennung.
Doch bei einem Punkt konnte KI bislang nur begrenzt überzeugen. Das Verstehen und Verarbeiten natürlicher Sprache. Traditionelle Sprachmodelle basieren in der Regel auf kurzen Textabschnitten, in denen nach fest definierten Signalwörtern oder kurzen Sequenzen gesucht wird, um eine Antwort zu generieren. So kann eine Alexa nur auf (vorher) fest definierte Fragen oder Anweisungen reagieren oder eine Text- und Zeichenerkennung nur die Muster finden, die ihr vorher beigebracht wurden.
Ein solches Sprachmodell kann zum Beispiel die Vertragslaufzeit in einem Kundenvertrag bislang nur finden, wenn diese entweder klar als solche aufgeführt sind oder anhand von festen und wiederkehrenden Merkmalen identifiziert werden können.
Dies benötigt viele wiederkehrende Beispiele. Doch was passiert, wenn die Vertragslaufzeit nicht eindeutig zu identifizieren ist, weil sie variabel von mehreren im Text aufgeführten Faktoren abhängt oder abweichend aufgeführt wird? Das ist der Punkt, an dem bisherige Sprachverarbeitungsmodelle an ihre Grenzen stoßen. Anders als wir Menschen sind diese nicht in der Lage, den Kontext zu verstehen. Der Hype um die neuen Formen von Sprachverarbeitungsalgorithmen, sogenannte Large Language Models (LLMs), die hinter Anwendungen wie ChatGPT stehen, ist also berechtigt.
Was macht Sprachmodelle wie ChatGPT so besonders?
LLM-Modelle sind ein spezieller Typ von Sprachmodellen, die auf einer neuartigen Architektur künstlicher neuronaler Netze basieren und mit speziellen Verfahren des maschinellen Lernens (sogenanntem Deep Learning) auf der Grundlage riesiger Mengen Textdaten trainiert wurden. Im Gegensatz zu traditionellen Sprachmodellen, die in der Regel auf kurzen Texten basieren, können diese Modelle längere Texte besser verstehen und analysieren.
Mehr noch: Sie sind in der Lage, semantische Zusammenhänge und Bedeutungen in Texten zu erkennen. Dadurch können sie nicht nur einzelne Wörter verstehen, sondern auch den Kontext und die Bedeutung von ganzen Sätzen und Abschnitten erfassen. Dies ist der Grund, warum ChatGPT in der Lage ist, unterschiedlichste Fragestellungen zu verstehen und die eigentliche Sensation: Man muss keine „fixen“ vordefinierten Signalsätze oder Regeln mehr einhalten, damit das System die Intention hinter einer Frage oder Anweisung versteht und darauf antworten kann.
Warum ChatGPT nicht auf alles eine (richtige) Antwort hat
Seit der Veröffentlichung von ChatGPT werden dessen Möglichkeiten ausgiebig getestet. Eine Erfahrung, die dabei häufig gemacht wird ist, dass das System zwar viele Frage- und Aufgabenstellungen ausführen kann, die Lösungen aber nicht unbedingt richtig sind. Der Grund liegt in der Datenbasis, die für die Entwicklung und das erwähnte Training des LLMs genutzt wurde. Ein KI-System kann nur die Aufgabenstellungen lösen und mit dem Wissen antworten, das es vorher beigebracht bekommen oder worauf es Zugriff hat. Im Falle des LLM hinter ChatGPT bestand die Datenbasis aus großen Mengen Text aus dem Internet wie Wikipedia, Foren und riesige Büchersammlungen sowie Beispielen für unterschiedliche Aufgabenstellungen, darunter Zusammenfassungen, Klassifikationen oder Sentimentanalysen.
Das bedeutet, dass ein LLM wie jenes hinter ChatGPT zwar in der Lage ist, die Frage- oder Problemstellung aus einer Anfrage zu extrahieren und zu verstehen, es aber nur „richtig“ Antworten kann, wenn sich die benötigten Informationen auch im vorhanden Wissenspool befinden oder es diese beigebracht bekommen hat. Andernfalls passiert es, dass das LLM die nächstwahrscheinliche Antwort „rät“. Man spricht in diesen Fällen von „halluzinieren“. Dies ist auch der Grund, warum ChatGPT zum Beispiel keine Antworten zu Ereignissen nach 2021 geben kann. Die Wissensbasis, über die das System verfügt, ging nur bis zu diesem Zeitpunkt.
Die Lösung lautet: Individualisierte KI-Systeme
Einsatz von KI-Systemen auf Basis von LLMs geht, ist es daher wichtig, zwischen den technischen Fähigkeiten zur Verarbeitung natürlicher Sprache und der zur Verfügung stehenden und genutzten Datenbasis zu unterscheiden. Denn während die Sprachverarbeitungsfähigkeiten solcher Modelle revolutionär sind, sind die Daten- und Informationsbasis der limitierende Faktor. Ein System, das keine Informationen über Versicherungskunden und Versicherungskundinnen, Policen oder Produkte hat, kann auch keine Fragen dazu beantworten.
Genauso wenig könnte es ein personalisiertes Anschreiben im Stil eines Beraters verfassen, wenn es keinen Zugriff auf Beispiele hat. Die Lösung lautet Individualisierung. Dabei nimmt man die Fähigkeiten zur Verarbeitung natürlicher Sprache eines bereits bestehenden LLMs als Grundlage und erweitert die Wissensbasis um Daten und Trainingsbeispiele, die für die eigene Problemstellung oder Anwendungsdomäne benötigt werden. Man schafft sich also ein individualisiertes KI-System.
Beratungsunterstützung für den Vertrieb – Wie groß sind die Vorteile?
Für den Versicherungsvertrieb bietet dies eine Vielzahl potenzieller Anwendungsmöglichkeiten. So könnte ein individualisiertes KI-System mit Zugriff auf Bestände, interne Dokumente oder Fachwissen etwa in der Kundenbetreuung oder dem Self-Service unterstützen.
Die Durchsicht und Analyse von Vertragsbestandteilen und dem berüchtigten Kleingedruckten ist eine komplizierte und zeitraubende Angelegenheit. Ein LLM mit Zugriff auf das Wissen über die jeweiligen Policen könnte automatisiert gewünschte Informationen aus den Verträgen extrahieren oder vereinfacht zusammenfassen. So könnte eine Kundin oder eine Kunde daran interessiert sein, welche Pflichten und Ausschlussgründe in ihrer Berufsunfähigkeitsversicherung zu beachten sind und könnte dies genau so fragen.
Das KI-System würde den Vertrag in wenigen Sekunden analysieren und die gewünschten Antworten geben. Dies könnte sogar während eines telefonischen Beratungsgesprächs in Echtzeit passieren. Genauso könnte ein solches System als Vertriebsunterstützung die Bestandskunden von Maklern analysieren und ermitteln, welche Risiken nicht oder nur unzureichend in den Policen abgedeckt sind oder wo Anpassungen notwendig wären.
Genauso könnte ein auf Basis interner Vorlagen, erfolgreicher Werbe-Kampagnen oder Kundenprofile nachtrainiertes KI-System individualisierte und personalisierte Anschreiben, Ansprachen oder Werbetexte zu Produkten oder Kampagnen generieren, die dann im persönlichen Stil der Firma, der Vermittler oder einer Zielgruppe gehalten sind.
Das eigentliche Potenzial steckt in der Individualisierung und Anpassung
Aktuell werden Systeme wie ChatGPT noch sehr im Sinne einer „Ein-Für-Alles-KI“ betrachtet, dabei steckt das eigentliche Potenzial in der Individualisierung und Anpassung auf eigene Problemstellungen und Daten von Beraterinnen, Beratern und Versicherern. Entsprechend angepasste und erweiterte KI-Systeme können bei den unterschiedlichsten Fragen oder Problemstellungen digital assistieren und Prozesse automatisieren. Es ist deshalb zu erwarten, dass in Zukunft immer mehr individualisierte KI-Systeme entwickelt und eingesetzt werden.
Der Autor Ole Dawidzinski ist Lead Data Scientist und Partner bei Tisson & Company.