Ursula Neumann arbeitet bei der Fraunhofer-Arbeitsgruppe für Supply Chain Services mit ihrem Team an der Entwicklung neuer Prognoseverfahren. Im Interview erklärt sie, warum Unternehmen in Data-Analytics-Projekte investieren sollten.
DVZ: Frau Neumann, wie erklären Sie Ihren Freunden oder Verwandten Ihr Forschungsfeld?
Ursula Neumann: Viele wissen bereits, dass immer mehr Daten entlang der Wertschöpfungskette erhoben werden, weil sie zum Beispiel schon einmal etwas von Big Data gehört haben. Wir versuchen, Erkenntnisse aus diesen großen Datenmengen zu ziehen, um zum Beispiel Trends zu analysieren oder komplexe Probleme in der Logistik zu lösen. Dabei unterstützt uns Computertechnik. Das nennt sich dann Data Analytics. Wir bearbeiten bei uns solche Data-Analytics-Anwendungsfälle in der Produktion, im Handel und in der Logistik.
„Mathematik revolutioniert die Supply Chain“, heißt es auf dem Titel eines neuen White Papers der Fraunhofer-Arbeitsgruppe für Supply Chain Services. Supply Chain Management hatte schon immer viel mit Mathematik zu tun. Was ist jetzt anders?
Zum einen werden die mathematischen und statistischen Verfahren, die die Basis von Prognosemodellen bilden, immer noch weiterentwickelt. Zum anderen wird die Mathematik heute mit der Informatik verknüpft, um Daten verarbeiten zu können. Und hier wurden enorme Sprünge gemacht in den vergangenen Jahrzehnten.
Im Zusammenhang mit Prognosen hört man oft etwas von Predictive oder Prescriptive Analytics. Was ist der Unterschied?
Bei Predictive Analytics geht es immer um das Fortschreiben einer Beobachtung, zum Beispiel in Form einer Zeitreihe. Prescriptive Analytics liefert hingegen Handlungsempfehlungen, gibt also noch zusätzliche Informationen. Je nachdem wie groß das Vertrauen in die künstliche Intelligenz (KI) ist, könnte dann zum Beispiel eine Bestellung sogar automatisiert ausgelöst werden.
Predictive und Prescriptive Analytics durchlaufen im aktuellen Hype-Zyklus für Supply-Chain-Strategien von Gartner gerade das Tal der Tränen, das in der Regel auf den Höhepunkt eines Hypes folgt. Und maschinelles Lernen, das bei beiden Methoden eingesetzt wird, ist auf dem Weg ins Tal. Wie desillusioniert sind Sie und Ihr Team gerade?
Desillusion verspüren wir hier gar nicht. Nach diesem Tal der Tränen folgt ja dann bestenfalls das längerfristige Hochplateau. Und in diese Richtung steuern wir schon. Es kommt aber auch immer auf die Branche an. Predictive und Prescriptive Analytics sind nicht mehr nur Schlagwörter. Gerade die Industrie ist zurzeit sehr interessiert daran, diese Methoden auch anzuwenden. Wobei ich immer betone: Es gibt keine KI von der Stange.
Hat dieser Schub vielleicht etwas mit der Pandemie zu tun?
Es kann schon sein, dass Corona hier als Beschleuniger wirkt. Diverse Studien haben ja gezeigt, dass Unternehmen, die bereits umfassender digitalisiert sind und KI-Methoden anwenden, in der Krise resilienter waren. Zwar sind die Unternehmen 2020/21 vorsichtiger mit Investitionen gewesen, aber die Corona-Krise hat die Digitalisierung auf jeden Fall stärker ins Bewusstsein gerückt. Und Vorsicht ist gut, denn Unternehmen sollten mit Bedacht investieren und nicht jedem Trend nachlaufen.
Warum sollten Unternehmen in Data-Analytics-Pilotprojekte investieren?
Zunächst einmal lernt man sehr viel über diese neuen Methoden, aber auch über die eigenen Prozesse und schafft zudem mehr Transparenz im eigenen Unternehmen. Denn man muss zum Beispiel die Daten, die zunächst erst einmal sehr unstrukturiert vorliegen, richtig analysieren und verstehen. Und man erhält ganz viel Kenntnis über den eigenen digitalen Reifegrad.
Den eigenen Datenschatz zu heben ist das eine. Viele sind aber nicht bereit, Daten auch mit anderen Beteiligten der Lieferkette zu teilen, obwohl gerade das den größten Mehrwert bringen würde. Wie groß ist die Bereitschaft zum Datenaustausch inzwischen?
Aus manchen Daten kann man in der Tat Informationen zur Unternehmensgesundheit extrahieren. Das sind immer problematische Daten. Der Wille zum Teilen nimmt grundsätzlich aber zu. Zum Beispiel haben wir ein Projekt, bei dem es um Rohstoffpreisprognosen geht. Da investieren mehrere Großhändler gemeinsam, weil sie alle an präziseren Prognosen interessiert sind.
Die Arbeitsgruppe SCS hat ein Forschungsfeld namens „Nachhaltigkeit in der digitalen Supply Chain“ entwickelt, für das Sie seit 2021 verantwortlich sind. Welche Effekte haben hier Analytics-Methoden?
Ökologische und ökonomische Nachhaltigkeit gehen hier oft Hand in Hand. Präzisere Bedarfsprognosen zum Beispiel können nicht nur die Kapitalbindung senken, sondern auch die Verschrottungsquote. Im Bereich der Transportlogistik haben wir ebenfalls Projekte, in denen wir Volumina vorhersagen, um die Kapazitäten besser auslasten, Touren besser optimieren und somit direkt Emissionen senken zu können.
Lässt sich in der Transportlogistik denn überhaupt noch so viel herausholen?
Ja, es stimmt, da wurde in den vergangenen Jahren schon einiges getan. Und wir haben in Europa natürlich das Problem der Kleinteiligkeit. Aber wir sehen hier durchaus noch Möglichkeiten – und auch der politische Druck steigt.
Beschaffung, Nachhaltigkeit, Transportlogistik – wo schlummern noch Potenziale?
Die meisten kommen mit dem Thema Bestandsmanagement auf uns zu. Hier gibt es gute Ansätze – und der Hebel zur Kostenreduktion ist besonders groß. KI wird zudem heute schon viel in der Produktion eingesetzt. Dort geht es zum Beispiel um die Qualitätssicherung oder darum, die Prozesse genauer unter die Lupe zu nehmen.
Was sind die Voraussetzungen für Einsteiger?
Abgesehen von der Datenbasis und IT-Infrastruktur brauchen Firmen Datenspezialisten und natürlich die Akzeptanz der Mitarbeiter. Vor allem die Fachkräfte, die mit diesen Tools arbeiten sollen, müssen mitgenommen werden.
Hat der Mensch als Planer und Steuerer in der Lieferkette künftig vielleicht sogar ausgedient?
Nein, der Mensch wird nicht ersetzt werden, aber durch den Einsatz solcher KI-Methoden verändern sich die Kompetenzprofile.
Das Interview führte Claudius Semmann