Der stationäre Einzelhandel ist auch im Consumer-Electronics-Bereich einem stetig wachsenden Wettbewerbsdruck ausgesetzt. Die Preissensitivität der Kunden steigt, die Transparenz des Internets unterstützt diesen Trend. Der Online-Handel ist dauerhaft im Aufwind und drückt stärker denn je auf die ohnehin schon tiefen Margen. Die Retailer versuchen entsprechend, mit Mitteln der Digitalisierung die Prozesse zu optimieren, zu automatisieren, um etwa Einkauf- und Nachschubplanung zu verbessern, Sortimente zielgruppenspezifischer zu gestalten, Zusatzverkäufe anzukurbeln oder Preise zu optimieren. Die schiere Menge an Artikel- und Kundendaten macht dabei verschiedenste Einsatzszenarien von künstlicher Intelligenz (KI), Machine Learning und Datenanalyse denkbar. Die enorme Masse der Daten und deren Komplexität stellen aber auch eine grosse Herausforderung dar.
Sisyphos-Arbeit Artikeldatenqualität
Üblicherweise setzen Retailer heute auf eine Omnichannel-Strategie. Sie kombinieren das stationäre Ladengeschäft mit Online-Shops und Katalogverkäufen. Diese unterschiedlichen Absatzkanäle erhöhen die Verkaufschancen, bringen aber gleichzeitig eine grosse Schwierigkeit mit sich: Die Channel müssen parallel bedient, gesteuert, analysiert und optimiert werden. Die Menge an Produktinformationen nimmt gleichzeitig dauerhaft zu, und obendrein ist das Sortiment einem ständigen Veränderungsprozess unterworfen. In Filialen müssen deshalb Tag für Tag grosse Mengen an neuen Produkten erfasst werden, wobei Produktdatensätze hunderte Attribute enthalten können. Die Pflege dieser Daten macht das Management der Produkt- und Stammdaten in den zentralen ERP-Systemen zu einer kostenintensiven, nicht enden wollenden Aufgabe. Dies umso mehr, als durch den E-Commerce befeuert, Produktbilder und Videos in den letzten Jahren mehr und mehr an Bedeutung gewonnen haben. In diesen und anderen Quellen enthalten sind strukturierte und unstrukturierte Daten, die heute häufig – ebenso wie interne Steuerungsdaten – von Hand gepflegt werden. Dass diese Art der Datenpflege nicht nur teuer, sondern auch fehleranfällig ist, versteht sich von selbst. Die Güte der Artikeldaten ist allerdings besonders wichtig für die Qualität der Warenwirtschaftsprozesse.
Mit Machine Learning Datenpflege optimieren
Welche Attribute und in welcher Ausprägung aber zu erfassen und zu pflegen sind, ist abhängig von den eintreffenden Informationen und den daraus abgeleiteten, teilweise hunderten Regeln. Deren Konstellation ist aber durch den Anwender kaum mehr zu überblicken. Schlechte Qualität der Artikeldaten in den ERP-Systemen ist die Folge, und die deshalb notwendige Korrektur erhöht wiederum Personalkosten weiter und führt zu Problemen wie beispielsweise, dass Warenlieferungen an den falschen Ort erfolgen. Oder es entstehen fälschlicherweise unterschiedliche Preise für gleiche Produkte, wenn in Filialen Regeln nicht konsequent umgesetzt werden. Die Kosten für den Pflegeaufwand der Daten nimmt noch mehr zu – ganz zu schweigen von Problemen mit der Kundenzufriedenheit, weil sich solche Fehltritte in Zeiten von Social Media in Windeseile viral verbreiten.
Erschwerend kommt hinzu, dass bereits einfachste Regeln gängigen ERP-Systemen bei der Stammdatenpflege Schwierigkeiten bereiten. Retailer behelfen sich deshalb oft mit Eigenentwicklungen, mit denen sie die Lösungen erweitern. Das Problem dabei: Dies führt zu hohen, wiederkehrenden Kosten für Wartung, die Systeme werden unflexibel und deshalb die Funktionalitäten zunehmend unzureichend. Hier können standardisierte Add-ons, die modifikationsfrei ins ERP integriert werden, Abhilfe schaffen. So lassen sich unter Einsatz von Machine Learning Prüfregeln flexibel und ohne Zuhilfenahme der IT-Abteilung erstellen und anpassen. Mit Machine Learning kommt hier ein Teilgebiet der KI zum Einsatz. Algorithmen identifizieren Plausibilitätsregeln, führen autonom Fehlerkorrekturen durch oder machen dem Anwender automatisch Vorschläge für Korrekturen. Die daraus folgenden Informationen fliessen als Trainingsdaten laufend wieder zurück ins System, sodass dieses mit der Zeit die korrekte Klassifizierung der Daten erlernt. Das System kann dafür dem Anwender Angaben zur Fehlerwahrscheinlichkeit und Plausibilität der Korrekturvorschläge machen und Warn- und Fehlermeldungen geben, was die Nachvollziehbarkeit der Intelligenz des Systems durch die Anwender erleichtert und die Akzeptanz fördert. Mit solchen (Teil-) Automatisierungen der Kontrolle lassen sich Fehlerquote und Prozesskosten massiv senken.
Vorhersagemodelle unterstützen Nachschubplanung
Mittlerweile fortgeschritten ist seit vielen Jahren die Nachschubplanung von Retailern. Mit statistischen Methoden und zunehmend auch mit Machine Learning gelingt es, Bestellmengen zu optimieren und den Nachschubprozess zu automatisieren. Voraussetzung dafür ist allerdings eine möglichst genaue Vorhersage des Bedarfs. Prognosealgorithmen arbeiten hier mit Vergangenheitsdaten. Hier kommt nun die erwähnte Datenqualität ins Spiel, denn sie ist die wichtigste Voraussetzung für eine optimale Bedarfsprognose. Eine wichtige Rolle spielt auch die Wahl des am besten geeigneten Prognosemodells, das die bedarfsbezogenen Eigenschaften eines bestimmten Produkts abbildet. Aber auch vergangene und zukünftige Bedarfseinflussfaktoren wie Promotions- und Werbekampagnen, Feiertage oder Ferienzeiten, Verkaufspreise und Preisänderungen, ungewöhnliche Wetterverhältnisse oder Sportveranstaltungen (etwa für die Nachschubplanung von TV-Geräten) können in die Modelle miteinbezogen werden. Mit Machine Learning und Automation wird die Logistik von Retailern optimiert, indem überschüssige Bestände und Bestandslücken in Distributionszentren und Filialen reduziert werden und vor allem indem der immense manuelle Bearbeitungsaufwand für die Nachschubplanung automatisiert wird. Zusätzlich verhelfen Datenanalysen zu mehr Transparenz in der Logistik und zur Verbesserung der Gesamtbetriebskosten.
Der IT- und CE-Retail ist diesbezüglich schwieriger zu planen als etwa der Lebensmitteleinzelhandel. Denn zum einen unterscheidet sich das Sourcing in der Logistik, weil der überwiegende Teil der Produkte aus China stammt. Das macht die Planung schwieriger, weil die Produkte von weit her kommen und trotzdem zum richtigen Zeitpunkt am jeweiligen Standorten verfügbar sein müssen. Erschwerend kommt hinzu, dass die Drehzahlen höher sind als bei Lebensmitteln. Ausserdem muss das System bei den Vergangenheitsdaten für die Prognose mit Referenzartikeln arbeiten, weil ständig neue Versionen das jeweilige Vorgängermodell ersetzen. Zur Schliessung von Bestandslücken im Regal entstehen derzeit Anwendungen mit sogenannten Realogrammen. Dazu fahren zum Beispiel Roboter mit kabellosen IoT-Kameras und -Sensoren durch die Regale und erfassen gezielt Daten im Verkaufsregal. Die Informationen stehen dann in Echtzeit zur Verfügung, um Leerbestände zu vermeiden, Falschplatzierungen von Produkten zu identifizieren und ineffizientes Auffüllen der Regale zeitsparender zu gestalten. Quasi als Nebenprodukt der automatisierten Nachschubplanung lässt sich die Personalplanung optimieren. Denn wenn im Lager oder den Filialen mehr oder weniger Volumen erwartet wird, kann man zur Kommissionierung der Ware entsprechend das dafür notwendige Personal bereitstellen.
KI- und Analysemethoden finden aber auch Anwendung bei der Auswahl der Produkte für die einzelnen Ladengeschäfte. Auswertungen von Bon-Daten etwa erlauben die optimale Bildung von Produkt-Clustern in den einzelnen Verkaufsstellen. So stellt denn derzeit die filialspezifische Sortimentierung die Kür für den Retailer dar. Der Computer- und CE-Retailer kann hier beispielsweise vom Fashion-Handel lernen, der filialspezifische Sortimente bereits erfolgreich bereitstellt. Gezielt werden für einzelne Lokationen verschiedene Warengruppen und Verkaufslokationen geplant und Sortimentsbreite und -tiefe optimiert. So können durch die Analyse von Vergangenheitsdaten und Geoinformationen (wie Kaufkraft in der Umgebung von Filialen) Produkte optimal Filial-Clustern zugeordnet und Preissätze und Margen optimiert werden. Auch kann man Kundendaten nutzen, um personalisierte Vorschläge und Empfehlungen zu machen, etwa wenn ein Kunde sich einer Filiale nähert (Stichwort Geofencing).
Vision und Wirklichkeit
Data Science, künstliche Intelligenz und Teilgebiete davon bergen viele Möglichkeiten zur Steigerung der Wettbewerbsfähigkeit von Retailern. Dabei bilden Bots und intelligente Verkaufsassistenten erst den Anfang des für die Kunden sichtbaren Einsatzes der Technologien. Kassenlose Filialen mit intelligenter Videoüberwachung, Verkaufsroboter, Augmented Reality und Co. sind hingegen hierzulande erst in wenigen Pilotprojekten Realität. Um das Potenzial der neuen Technologien weiter auszuschöpfen, muss zuallererst die Datenqualität im Hintergrund massiv gesteigert werden. Wie etwa Produktinformationen aus Bilddaten extrahiert und mit weiteren Produkt-, Bild- und Textdaten von Webseiten und ähnlichen Produkten aus dem ERP fusioniert und automatisiert zu einem vollständigen Datensatz generiert werden können, wird aktuell am Institut für Softwaresysteme der Hochschule Trier erforscht. Dass es sich um ein Forschungsprojekt handelt, zeigt, dass der Retail mit KI noch ganz in den Kinderschuhen steckt. Eine optimale Datenqualität unter Zuhilfenahme von Automatisierung und Machine Learning ist aber Voraussetzung, um Produkt- und Kundendaten für neue Anwendungen zielführend auszuwerten und einsetzen zu können.
Der Autor
Lars Klimbingat ist Partner und Leiter des Compentence Centers für Stammdatenmanagement und Prozesse beim auf Gross- und Einzelhandel spezialisierten Zuger SAP-Beratungshaus
Retailsolutions. Er begleitet Projekte im gesamten europäischen Raum und entwickelt innovative Lösungen rund um Themen wie Stammdatenqualität, Machine Learning, Bots und intelligente Einkaufsberater. Seinen beruflichen Werdegang startete Lars Klimbingat im Jahr 2001 als Berater im Stammdatenumfeld bei SAP, ab 2005 verantwortete er für SAP Schweiz zahlreiche Stammdatenprojekte, bevor er 2007 zu Retailsolutions wechselte. www.retailsolutions.ch