22.6.2023 (€) – In einem 33-seitigen Papier hat der Versicherer seinen Umgang mit dem bekannten Bot ChatGPT und Sprachmodellen im Allgemeinen beschrieben sowie auf Gefahren und Chancen hingewiesen. Da der Chatbot datenschutzrechtlich in der Kritik steht, ist das Unternehmen gerade in Bezug auf den Kundendialog zurückhaltend. Ansonsten laufen die Forschungen zum Implementieren.
Bis 2025 wollen die Ergo Versicherungen digital führend in Deutschland und darüber hinaus sein. Entsprechend intensiv befasst sich der Versicherer aktuell unter anderem mit Chatbots und Large Language Models (LLM).
Dabei prescht die Ergo immer wieder voraus. Seit 2018 arbeitet die Ergo Voice Unit an einem Sprachassistenten für den Kundenservice, sprach davon schon ein Jahr zuvor (VersicherungsJournal 8.6.2017). Jetzt veröffentlichte das Unternehmen ein Whitepaper zur zukünftigen Nutzung von Chatbots.
Plötzlich steht ChatGPT auf der Tagesordnung
Erst Ende 2022 wurde der Chatbot ChatGPT 3 vom amerikanischen Unternehmen OpenAI Inc. für die Öffentlichkeit online gestellt. Einige Anbieter in der Versicherungswelt wie beispielsweise der Maklerverwalter Insurgo GmbH haben sich den Bot bereits zunutze gemacht (13.2.2023).
Ergo berichtet, dass mit der richtigen Rollenzuordnung des Bots beispielsweise Webseitentexte für Versicherer erstellt werden können. Dazu testete das Unternehmen den Bot selbst mit der Eingabe von Textbefehlen. Die daraufhin generierten Texte zu Produktclaims, Werbetexten und Datenschutz-Bestimmungen sind im Whitepaper nachzulesen.
Ergo forscht an der Nutzung der Modelle
Die Ergo selbst forscht aktuell intensiv an der Nutzung der Modelle, unter anderem bei der Unterstützung von Mitarbeitern bei allgemeinen Schreibaufgaben oder bei der Erzeugung von themenspezifischen Textbausteinen. Beim Einsatz im Kundendialog ist der Versicherer aktuell wesentlich zurückhaltender.
Auch in anderen Unternehmen ist die künstliche Intelligenz (KI) auf dem Vormarsch. Unlängst hatte die Bavariadirekt Versicherung AG berichtet, wie KI Sachbearbeitern unter die Arme greifen kann (16.6.2023).
Mögliche Nutzung im Alltag
Doch welchen Nutzen bringt ein Bot? Die Ergo stellt dar, dass er beispielsweise die Kernaussagen eines Presseartikels für den Leser extrahieren und zusammenfassen könnte. Ebenso könnte er wie ein Kundenberater reagieren – in welcher Qualität diese Beratung dann wäre, hatte Ergo dabei nicht bewertet.
Der Versicherer stellt auch einen Beispielfall auf, in dem der Bot Kontaktinformationen aus Texten aufgreift – am Beispiel eines Max Mustermanns. Gleichzeitig weist das Whitepaper auch darauf hin, dass gerade die Verarbeitung von persönlichen Daten bei dem amerikanischen Chatbot aufgrund des Datenschutzes mit Vorsichtig zu genießen ist.
Datenschutzrechtliche Bedenken
Dem entspricht auch ein Erklär-Stück der auf IT-Recht spezialisierten Anwaltskanzlei Rechtsanwälte Keller-Stoltenhoff, Keller GbR. Laut dem Rechtsanwalt und Autoren des Artikels, Dr. Daniel S. Huber, verstößt ChatGPT aktuell gegen deutsche Datenschutz-Bestimmungen. Huber erklärt, dass zwar eine rein private Nutzung „als Spielerei“ rechtlich unproblematisch sei, ein kommerzieller Einsatz hingegen aktuell nicht juristisch sicher ist.
Für Andreas Sutter, Datenschützer und Director Protect bei der Disphere interactive GmbH, ist ChatGPT datenschutztechnisch ein rotes Tuch. Das berichtete er im Podcast (23.3.2023).
Gefahren bei der Nutzung von LLMs und Chatbots
Problematisch bewertet die Ergo neben den Datenschutzgefahren auch, dass ein Chatbot erfundene Inhalte selbstbewusst kommuniziert. Die generierten Texte werden aufgrund von Wahrscheinlichkeiten erstellt, nicht auf Basis bloßer Fakten. Ein gut argumentierter aber inhaltlich falscher Text – beispielsweise im Marketing – könnte als korrekt wahrgenommen werden. Dieses Phänomen nennt sich KI-Halluzination.
Die „Gefahren“ können auch finanzieller Natur für die Unternehmen sein. Denn die Ergo weist darauf hin, dass die Benutzung von Chatbots geeignetes Fachpersonal voraussetze. Dieses sei einzustellen, „um die wachsenden Anforderungen an die Implementierung von Sprachmodellen zu bewältigen“, wie es im Whitepaper heißt.
Damit einher geht auch die Verantwortung, die der Einsatz dieser Technologie mit sich bringt. Nach wie vor müsse der Mensch die von der KI erstellten Texte kritisch betrachten und prüfen.
Das 33-seitige Whitepaper kann hier heruntergeladen werden (PDF 409 KB).




