Hana, ein Selbstversuch – Teil 2

blog-featureimage-hana

Wie im ersten Teil dieser Blogreihe versprochen, liefere ich jetzt ein Beispiel für eine „Teflon-Pfanne“.

Nehmen wir an, sie seien ein mittelständischer Automobilzulieferer und produzieren Treibstoffpumpen für alle namhaften Hersteller. Dann schließen sie im Normalfall mit z.B. der Firma Audi einen Mengenkontrakt über die Abnahme von 200.000 Treibstoffpumpen für den neuen Audi Q18 ab. Diese Menge wird natürlich nicht auf einmal benötigt sondern abhängig vom Tages- bzw. Wochenbedarf abgerufen. Für die Planung ihrer Produktion bekommen sie in regelmäßigen Abständen Informationen zu den aktuellen und zukünftigen Bedarfsmengen. Diese Informationen werden in Form von Lieferabrufen übermittelt und sind auf der technischen Ebene EDI-Nachrichten und da meistens unsere altehrwürdigen IDOCs.

Sie bekommen also Informationen der Art, dass ihr Kunde in der nächsten Woche vom Produkt X 1000 Stück brauchen wird, in der Folgewoche 1120, in der Woche darauf 1080 etc. Diese Datenreihen sind natürlich für die Planung sehr interessant, sie haben nur einen Nachteil, sie ändern sich ständig. Der Lieferabruf vom Montag meldet ihnen die Mengen 1000,1120,1080, 1300 für die vier Folgewochen, der Abruf vom Mittwoch dann allerdings die Mengen 990,1150,810,1600.

Es ist natürlich nicht verwunderlich, dass die Schwankungen in den Bedarfsmengen sich mit zunehmender zeitlicher Nähe zur „Zielwoche“ beruhigen. Die interessante Frage aus statistischer Sicht ist, wann haben sie sich so weit beruhigt, dass ich sie für einen vernünftige Planung verwenden kann, gibt es vielleicht spezifische Zeitspannen für jedes Produkt, haben sich diese Zeitspannen verändert etc. ?

Die „ergodische“ Frage könnte lauten, lassen die Datenreihen überhaupt eine tragfähige Prognose zu ?

Dazu begebe ich mich in eine zurückliegende Kalenderwoche, schaue in der Vergangenheit, treffe eine Prognose und vergleiche sie dann mit den tatsächlichen Zahlen. Wenn die Abweichung in einem definierten Rahmen bleibt, kann ich mit der Analyse fortfahren. Diese Funktionen gehören zu den einfacheren ihrer Art, für einen Erstkontakt sind sie aber bestens geeignet.

Die Rohdaten, die ich zur Beantwortung dieser Frage bearbeiten könnte, stecken u.a. in den IDOC-Tabellen also EDIDC und EDID4. Diese Tabellen haben schon mal einige Millionen Einträge. Gleiche ich diese Daten dann noch mit kaufmännischen Daten ab und zerlege und gruppiere meine Produkte nach weiteren Kriterien, dann sind wir sehr schnell bei BIG DATA.

Dieses Szenario war die Grundlage für meine erste HANA-Lösung. Ein Kunde stellte mir sein Datenmaterial zur Verfügung, das ich natürlich erstmal anonymisiert habe. Dann habe ich angefangen, mit diesen Daten zu spielen und herauszufinden, wieviel Aufwand ich treiben muss, um die oben gestellten Frage zu beantworten. So viel vorab, noch immer kann man sich eine Lösung dieser Art nicht mit ein paar Mausklicks zusammenbauen. Die Modellierung der Daten muss sorgfältig und zielführend erfolgen, dann allerdings ist der Rest keine Sache mehr. Ich bekomme mit geringem Aufwand sehr präzise und gut dargestellte Analysen meiner Daten. Die Ergebnisse kann ich dann in eine MRP-Simulation einfließen lassen und so Optimierungsverfahren implementieren, die ohne HANA-Technologie schlicht nicht möglich wären.

Nach diesen Erfahrungen sehe ich nun ein Feld nützlicher Anwendungen im Bereich komplexer Simulationen und Optimierungsverfahren. Der Aufwand bis zu dem Punkt, an dem meine Daten im HANA-System zur Verfügung standen, war zunächst erheblich. Abgesehen von der Modellierungsphase lag der Aufwand zur Übertragung aus dem Quellsystem in der Größenordnung von zehn Stunden. Übertragen wurden dabei ca. 3,2 Millionen Datensätze, die einzeln anonymisiert und konsolidiert wurden. Das lässt sich sicher noch optimieren und ist eher als initialer Aufwand zu sehen.

Als Nebeneffekt habe ich mich mit den Methoden zum Datenzugriff unter HANA befasst. Herausgekommen ist ein HANA-Bot-Net, ein Verfahren zur „Belegsynthese“ und die Adaption einiger Verfahren aus der Proteinbiosynthese für die Erzeugung von Belegdarstellungen, jede Menge Teflon-Pfannen würde ich meinen…

– von Mario Lütkebohle, itelligence AG –

Ähnliche Beiträge

NTT_DATA-Business-Solutions-690x180
Lesen Sie mehr
blog_featured image_simplification1
Lesen Sie mehr
Image_Gears-on-Digital-Background-690x180
Lesen Sie mehr
Blogbild_Scrum
Lesen Sie mehr
Blogbild_Alain-1
Lesen Sie mehr
Feature_Image-Experience-NewOpportunities-690x180
Lesen Sie mehr
Folgen Sie uns: