Tiefgehende Datenanalysen bieten handfesten wirtschaftlichen Nutzen in mehreren Dimensionen. Beispielsweise können die Kosten für den Geschäftsbetrieb durch die automatisierte Analyse und Verarbeitung von Kundenschreiben oder die Nutzung von Bots und Sprachassistenten verringert werden. Der Produktabsatz wird durch passgenaue Leads und Kampagnen erhöht und die Aufwände für Versicherungsschäden sinken durch automatisierte Hinweise auf mögliche Betrugsfälle.
Ebenso kann die Konkurrenzfähigkeit der Produktangebote durch eine kundenspezifische Risikokalkulation mit adäquaten Risikoprämien für Versicherungen oder Kredite verbessert werden. Folgerichtig geben 70 Prozent der Banken und 61 Prozent der Versicherungen in einer gemeinsamen Studie von Lünendonk und Q_Perior an, dem Thema Datenanalyse in den nächsten 3 Jahren hohe Priorität einzuräumen.
Schätzungen von Datenexperten gehen jedoch davon aus, dass 60 bis 80 Prozent aller Datenprojekte scheitern. Auch Versicherungen und Banken stehen vor dieser Herausforderung und müssen die Risiken von Datenprojekten zielgerichtet managen. Voraussetzung dafür ist unter anderem, die typischen Fehler zu kennen und zu vermeiden. Dabei mag es vielleicht überraschen, dass Datenprojekte vielfach nicht aus(daten-)technischen, sondern aus menschlichen Gründen fehlschlagen. Die folgenden Risiken sind die fünf häufigsten Gründe für das Scheitern von Datenprojekten.
Risiko 1: Zu hohe Erwartungen
Daten und Algorithmen sind nicht die magische Lösung aller Probleme. Beispielsweise ermöglichen es Datenanalysen, Muster im Kaufverhalten zu erkennen, dem Kunden daraufhin Angebote mit einer höheren Erfolgswahrscheinlichkeit zu machen (Next Best Offer) und so den Absatz zu steigern. Die beste Datenanalyse nutzt jedoch wenig, wenn die dafür genutzten Daten aufgrund der geringen Kontaktfrequenz der Kunden mit dem Unternehmen hoffnungslos veraltet sind.
Risiko 2: Der Ergebnisbeitrag ist unklar
Wird nicht klar definiert, welchen Ergebnisbeitrag das Datenproduktleisten soll, stiftet es nur geringen oder sogar keinen Nutzen. Ein Beispiel: Entscheider möchten auch das trendy Gadget der Konkurrenz nutzen – einen Next-Best-Offer-Algorithmus. Schneidet das Unternehmen im Verkauf allerdings bereits gut ab, die Risikoselektion ist jedoch schlecht, kann das Datenprodukt dieses Problem nicht lösen und wirkt in diesem Fall sogar gegebenenfalls kontraproduktiv.
Risiko 3: Mangelnde Akzeptanz bei den betroffenen Einheiten
Dass viele Jobs durch Algorithmen ersetzt werden ist eine weitverbreitete, jedoch in der Regel unberechtigte Angst. Darum sollten Entscheider in Datenprojekten von Anfang an alle Stakeholder einbinden, um diese Ängste zu nehmen und die Mitarbeiter zu begeistern.
Risiko 4: Schlechte Datenverfügbarkeit und -qualität
Für zwei Drittel der Versicherungen stellen die Datenqualität und -verfügbarkeit einen zentralen Knackpunkt dar. Bevor Datenanalysen ausgeführt werden können, müssen die Daten aus verschiedenen Systemen extrahiert und hinsichtlich Qualität und Formaten bereinigt werden.
Entsprechend verwundert es nicht, dass Umfragen unter Datenexperten ergaben, dass sie bis zu 80 Prozent ihrer Zeit mit der Datenvorbereitung statt mit der Datenanalyse verbringen. Gerade für die häufig als wenig wertschöpfend wahrgenommene Vor- und Aufbereitung der Daten müssen Entscheider also sehr viel Zeit und Budget einkalkulieren.
Risiko 5: Geringe Datenexpertise
Datenexperten sind Mangelware. Auch die Assekuranz und die Bankenbranche spüren diesen Fachkräftemangel, da sie häufig noch nicht als attraktive IT-Arbeitgeber wahrgenommen werden. 65 Prozent der Banken und sogar 72 Prozent der Versicherungen nennen den Mangel an qualifizierten Fachkräften für die digitale Transformation als eine der zentralen Herausforderungen für die nächsten Jahre.
Wie können die Risiken für das Scheitern von Datenprojekten verringert werden? Bei den Risiken 1 bis 3 ist schon viel gewonnen, wenn die verantwortlichen Projektleiter vorausschauendes Erwartungs- und Change-Management betreiben beziehungsweise sich klassischer Methoden der Business Analyse bedienen. Es kommt also vor allem darauf an, die Risiken zu kennen und bewusst zu managen. Um den Risiken 4 und 5 zu begegnen, sind hingegen tiefergehende Veränderungen beziehungsweise strategische Weichenstellungen in den Unternehmen notwendig, die im Folgenden kurz skizziert werden.
Um den Status quo hinsichtlich der Datenqualität und -verfügbarkeit zu verbessern (Risiko 4), sollten Finanzdienstleister, wo noch nicht erfolgt, neue Rollen in der strategischen und operativen Organisation verankern, die dieses Thema ganz oben auf die Agenda setzen. Teilweise sind bereits heute in der Unternehmensspitze von Banken und Versicherungen Chief Data Officers zu finden, deren Aufgaben unter anderem darin bestehen, zentrale datenrelevante Strategien zu formulieren sowie Standards und Organisationsformen für das Enterprise Information Management vorzugeben.
Während der Chief Data Officer strategisch wirkt, kümmern sich Datenarchitekten um die fachlichen und operativen Anforderungen der Geschäftsbereiche. Der Datenarchitekt legt unter anderem fest, für welche fachlichen Geschäftssysteme welche Daten in welcher Granularität und mit welcher Aktualität vorliegen müssen, um die fachlichen Services – und im Ergebnis die fachlichen Prozesse – redundanzfrei mit qualitativ hochwertigen Daten zu versorgen.
Datenarchitekten stellen darüber hinaus in einer Matrix aus internen und externen Datenquellen sowie strukturierten und unstrukturierten Daten ein für das Unternehmen zentrales Datenportfolio zusammen. Diese, hier nur kurz skizzierten, Investitionen in eine Datenstrategie und ein sauberes, strukturiertes Datenportfolio zahlen sich vor allem in der operativen Projektarbeit aus, da in der Folge die Aufwände für die an sich nicht wertschöpfende Datenvorbereitung verringert werden können.
Bei bis zu 80 Prozent Aufwand für Datenvorbereitung je Datenprodukt bestehen hier erhebliche Budget- und Ressourcenhebel. Aber wie können die notwendigen Talente für Datenprojekte in der Finanzdienstleistungsbranche gewonnen werden, die noch nicht als attraktiver Arbeitgeber in diesem Themengebiet wahrgenommenen wird (Risiko 5)?
War for Talents tobt
Um die wenigen Köpfe mit ausgeprägten Datenanalyse-Skills tobt der „War for Talents“ besonders heftig. Da bei den meisten Unternehmen das entsprechende Know-how im Recruiting und der Personalentwicklung offenbar noch ein Nebenthema ist, können sich klare „First Mover“-Vorteile oder -Nachteile ergeben.
Die Talente wollen Methoden und Technologie mit Gleichgesinnten in einem strukturierten Ansatz zu spannenden Use Cases entwickeln. Wenn Datenanalyse nur „hier und da“ eingesetzt wird und dezentral organisiert ist, steht für die Finanzdienstleister zu befürchten, dass sie Experten und Enthusiasten nur selten für sich gewinnen können.
Um die besten Talente für sich zu gewinnen, ist es für die Unternehmen – unabhängig vom aktuellen Reifegrad – sehr sinnvoll, eine überzeugende Vision zum Einsatz von datenanalytischen Methoden und Technologien zu formulieren. Für Talente kann es sogar ein sehr ansprechender Faktor sein, wenn sie früh mitgestalten können, falls die Datenstrategie noch nicht ausgestaltet ist.
Innovations-Hubs etablieren
Entscheidend ist in diesem Fall jedoch, dass sie sich in der Vision des Unternehmens wiedererkennen und das Unternehmen bereits in einem frühen Stadium glaubhaft machen kann, dass es Investitionen in Datenprodukte und datengetriebene Geschäftsmodelle ganz oben auf seine Agenda setzt. Dies kann sich beispielsweise in der Etablierung bereits vielfach anzufindender „Innovation-Hubs“ ausdrücken, in denen es Talenten erlaubt ist, sich auszuprobieren. Ein überzeugendes agiles Mindset und ein Start-up-Spirit bei der Entwicklung der eigenen datenanalytischen Fähigkeiten kann potenzielle Mitarbeiter mit den gesuchten Skills gegebenenfalls sogar mehr überzeugen als ein hoher Reifegrad.
Autorin Dr. Annika Bergbauer ist Consultant bei der Business- und IT-Beratung Q_PERIOR. Autor Alexander Horn ist Associate Partner bei Q_PERIOR und leitet dort den Bereich Process Intelligence & Architecture.