Die Zufrie­den­heit eines Kun­den hängt oft­mals nicht nur von der Qua­li­tät des gekauf­ten Pro­dukts ab, son­dern auch vom Ser­vice des Anbie­ters. Ein posi­ti­ves Kun­den­er­leb­nis kann dar­über ent­schei­den, ob aus einem zufrie­de­nen Kun­den ein loya­ler Kunde wird und er sich even­tu­ell sogar zu einem “Bot­schaf­ter der Marke” entwickelt.

In die­sem Blog möch­ten wir Ihnen unsere umge­setzte inno­va­tive und modu­lare Lösung für die Opti­mie­rung eines Call Cen­ters vor­stel­len. Hier­für haben wir im Rah­men eines PoCs die Google Speech API ver­wen­det, um die Call Cen­ter-Gesprä­che zu tran­skri­bie­ren und um anschlie­ßend mit Hilfe von Advan­ced Ana­ly­tics nicht nur quan­ti­ta­tive, son­dern auch qua­li­ta­tive Aus­wer­tun­gen der Gesprä­che zu ermöglichen.

Aus­gangs­si­tua­tion

Aus­gangs­lage für die Umset­zung die­ses Use Cases waren Audio­da­teien von Tele­fon­mit­schnit­ten mit Kun­den, die im Ser­vice-Cen­ter eines Unter­neh­mens, das diverse elek­tro­ni­sche Geräte wie Mobil­te­le­fone und Lap­tops vertreibt.

Pro­jekt­ziele

Ziel des Pro­jekts war es, für das Unter­neh­men eine auto­ma­ti­sierte und modu­lare Lösung zu ent­wi­ckeln, die diese Audio-Dateien in Text tran­skri­biert und durch Advan­ced-Ana­ly­tics-Metho­den Erkennt­nisse zur Opti­mie­rung der Call-Cen­ter-Per­for­mance ableitet.

Nut­zen

  • Stei­ge­rung der Kun­den­zu­frie­den­heit und Kundenbindung
  • Qua­li­tät der Next Best Action (NBA) bzw. Next Best Offer (NBO) erhöhen
  • Iden­ti­fi­ka­tion von Trai­nings­maß­nah­men, Gesprächs­schwer­punk­ten und Vertriebspotential
  • Auto­ma­ti­sier­tes Skill Based Routing
  • Kos­ten­re­du­zie­rung im Call Cen­ter durch Auto­ma­ti­sie­rung von Prozessen
  • Mess­bar­keit der qua­li­ta­ti­ven Leis­tung des Agents
  • Res­sour­cen-Opti­mie­rung
  • Wis­sen für zukünf­tige Chat­bots zu gewinnen

Umset­zung

Nicht nur wegen der gro­ßen Daten­menge, die ein Call-Cen­ter pro Tag pro­du­ziert, son­dern auch auf­grund des For­mats der Gesprächs­pro­to­kolle ist eine Big Data Hadoop Platt­form ideal für die wei­tere Ver­ar­bei­tung der Daten. Für die Umset­zung des Use Cases haben wir fol­gende Tech­no­lo­gien und Big Data Open Source Tools verwendet:

  • Hadoop Clus­ter in der Ama­zon-Cloud
    (EC2:2 Mas­ter Nodes (m4.2xlarge) und 6 Slaves (m4.xlarge).)
  • Clou­dera Hadoop Distribution
  • Hadoop Dis­tri­bu­ted File­sys­tem (HDFS)
  • ffmpeg und Google Speech API
  • Python mit Apa­che Spark SQL und Apa­che Spark ML
  • Ela­s­tic­se­arch und Kibana

Ver­ein­facht lässt sich die tech­nisch anspruchs­volle Archi­tek­tur wie folgt darstellen:

Call Center Optimierung durch Speech to Text und Advanced Analytics Bild1
Abbil­dung 1 Ver­ein­fachte Architektur

Eine ent­schei­dende Kom­po­nente die­ser Archi­tek­tur ist das Speech-To-Text Modul. Nur wenn die Gesprächs­pro­to­kolle der tran­skri­bier­ten Audio­da­ten in guter Qua­li­tät vor­lie­gen, kön­nen wei­tere Ana­ly­sen mit Machine Lear­ning erfolg­reich umge­setzt wer­den. Wäh­rend des Pro­jekts haben wir ver­schie­dene Biblio­the­ken für die Über­set­zung von Spra­che zu Text getes­tet. Es hat sich gezeigt, dass die Google Speech API mit einer durch­schnitt­li­chen Feh­ler­quote von nur 5% zu den bes­ten Ergeb­nis­sen führte. Unser Speech-To-Text Modul auf Basis der Google-API benö­tigt für die Über­set­zung und die Berech­nung ers­ter Kenn­zah­len eines vier­mi­nü­ti­gen Gesprächs unge­fähr eine Minute. Diese Zeit läßt sich aber durch Par­al­le­li­sie­rung wei­ter verkürzen.

Für die wei­tere Ver­ar­bei­tung der Daten haben wir aus­schließ­lich kos­ten­lose Open Source Tech­no­lo­gien ver­wen­det. Somit fal­len ledig­lich Kos­ten für die Nut­zung der AWS Cloud, der Clou­dera-Dis­tri­bu­tion sowie der Google Speech API an. Um die Gesprächs­pro­to­kolle effi­zi­ent ana­ly­sie­ren zu kön­nen, wer­den diese auf das Hadoop Dis­tri­bu­ted File­sys­tem (HDFS) abge­legt und mit Apa­che Spark SQL auf­be­rei­tet, um anschlie­ßend mit Spark Machine Lear­ning (ML) eine Topic-Dis­co­very auf allen Gesprächs­pro­to­kol­len und eine Sen­ti­ment-Ana­lyse auf den ein­zel­nen Gesprä­chen durch­zu­füh­ren.
Ins­ge­samt wer­den über 40 Kenn­zah­len gene­riert und mit Ela­s­tic­se­arch und Kibana Dash­boards zur Visua­li­sie­rung erstellt.

Alle genann­ten Schritte ver­lau­fen völ­lig auto­ma­tisch. Der Work­flow wird in der fol­gen­den Auf­zäh­lung kurz erläutert:

  • Audio­da­tei des auf­ge­nom­me­nen Call Cen­ter-Gesprächs wird an das Hadoop Clus­ter in der Ama­zon Cloud geschickt.
  • Das Speech-To-Text Modul wird ange­sto­ßen und tran­skri­biert die neu ein­ge­trof­fene Audiodatei.
  • Sen­ti­ment-Ana­lyse und Topic-Dis­co­very mit Apa­che Spark wer­den auf­grund des neuen Gespräch­pro­to­kolls ausgeführt.
  • Ana­lyse-Ergeb­nisse wer­den an Ela­s­tic­se­arch gesen­det und direkt auto­ma­tisch mit Kibana in Form von Dash­boards visualisiert.

Für die Ver­ar­bei­tung der Punkte 3 und 4 eines 4‑minütigen Tele­fo­nats wer­den weni­ger als eine Sekunde auf dem Clus­ter benötigt.

Aus­ge­wählte Ergebnisse

In Abbil­dung 2 und 3 sind Bei­spiel­ergeb­nisse der Topic-Dis­co­very dar­ge­stellt.  Die Word Cloud in Abbil­dung 2 zeigt die wich­tigs­ten Wör­ter aller gefun­de­nen Topics (Clus­ter), wäh­rend die Word Cloud in Abbil­dung 3 die Wör­ter eines Topics (Clus­ters) visua­li­siert. Topics wer­den sowohl für alle Gesprä­che, als auch für Gesprä­che eines bestimm­ten Zeit­raums erstellt. Somit ist es z. B. mög­lich mit den Topics eines Tages Pro­bleme bes­ser zu iden­ti­fi­zie­ren und schnel­ler zu beheben.

Wei­tere inter­es­sante Kenn­zah­len sind z. B. der Anteil von Gesprächs­über­lap­pun­gen (siehe Abbil­dung 4) und die Anzahl an unna­tür­li­chen Gesprächs­pau­sen eines Agen­ten (siehe Abbil­dung 5). Eine Gesprächs­über­lap­pung fin­det statt, wenn der Agent dem Kun­den ins Wort fällt. Unna­tür­li­che Gesprächs­pau­sen ent­ste­hen bei­spiels­weise falls der Agent lange Zeit zum Nach­den­ken braucht und kön­nen die Zufrie­den­heit des Kun­des beeinflussen.

Jedes tran­skri­bierte Gespräch kann auf dem Dash­board aus­ge­wählt und ange­zeigt wer­den (siehe Abbil­dung 6). Im Rah­men der Sen­ti­ment­ana­lyse wei­sen wir mit Hilfe von Machine Lear­ning jedem „Gesprächs-Snip­pet“ ein Sen­ti­ment bzw. eine Klasse (posi­tiv, nega­tiv oder neu­tral) zu. Der Ver­lauf des Sen­ti­ments eines Gesprächs wird in einem His­to­gramm dar­ge­stellt (siehe Abbil­dung 7).

Abbil­dung 2 Word Clou­der aller gefun­de­nen Topics.
Abbil­dung 3 Word Cloud eines Topics
Call Center Optimierung durch Speech to Text und Advanced Analytics Bild4
Abbil­dung 4 Durch­schnitt­li­che Gesprächs­über­lap­pung ver­ur­sacht durch die Agents.
Call Center Optimierung durch Speech to Text und Advanced Analytics Bild5
Abbil­dung 5 Anzahl unna­tür­li­cher Gesprächs­pau­sen der Agents.
Call Center Optimierung durch Speech to Text und Advanced Analytics Bild6
Abbil­dung 6 Aus­zug eines Gesprächs­pro­to­kolls mit zuge­hö­ri­gen Sentiments.
Call Center Optimierung durch Speech to Text und Advanced Analytics Bild7
Abbil­dung 7 Ent­wick­lung des Sen­ti­ments inner­halb eines Gesprächs

Wei­tere geplante Projektschritte

  • Ein­bin­dung der Kundenhistorie
  • Near-Real­time Umset­zung für NBO und NBA
  • stär­kere Inte­gra­tion mit der Call Center-Software