Hana, ein Selbstversuch – Teil 1

HANA

Erinnern Sie sich noch an die Abkürzung „KI“ ? Zugegebenermaßen liegt die Hype-Phase um diesen technologischen Ansatz schon ein paar Jahrzehnte zurück. Inzwischen tritt diese Abkürzung für den Begriff der künstlichen Intelligenz nur noch eher schüchtern in Erscheinung. Man könnte meinen, das Thema sei mausetot. Tatsächlich sind aber sehr viele technische Konzepte und Designansätze, die seinerzeit unter diesem Thema geführt wurden, fester und unverzichtbarer Bestandteil neuester Technologien. Die moderne Robotik wäre ohne die Pionierarbeit der KI-Forscher undenkbar. Möglicherweise muss man am Anfang viel Lärm machen, dann macht das viele Leute neugierig und von diesen neugierigen Leuten fangen dann vielleicht einige an, mit der neuen Technologie ganz eigene Wege zu gehen. Dann wird es spannend.

Gute Ideen finden ihren Weg, wenn auch fast nie so, wie die Visionäre der ersten Stunde sich das gedacht haben. HANA ist eine sehr mächtige Basistechnologie und es ergeht ihr in der Wahrnehmung von außen ein wenig wie der guten alten KI.

Nur selten und nur bei wenigen großen Anwendern werden die zugrundeliegenden technischen Konzepte dann in Reinkultur in eine echte Business-Lösung überführt und bei einem breiteren Nutzerkreis kommen sie selten auf diese Weise an. Der eigentliche Nutzen für „normalsterbliche“ SAP-Anwender ist meist anderer Natur. Ich vergleiche das gerne mit der Teflonpfanne, die ja seinerzeit als Kollateralnutzen bei Forschungsprojekten für die Raumfahrt abgefallen sein soll.

Zum Mond fliegen nach wie vor nur wenige Menschen, ein risikoarm in die Pfanne gehauenes Spiegelei erfreut da schon deutlich mehr Zeitgenossen. So oder so ähnlich erging es auch vielen „großen“ SAP-Themen, sie stifteten ihren Nutzen in Form von kleinteiligeren operativen Lösungen, die dann unter anderem Namen und zu angemessenen Kosten einem deutlich größeren Nutzerkreis zur Verfügung standen.

Auch nach über 20 Jahren als Entwickler bin ich noch immer neugierig, wenn es etwas Neues zu sehen und zu lernen gibt. HANA fand ich von Anfang an spannend aber auch ein wenig „too fat“ für meine Kunden. Unsere typischen Kunden kommen aus dem gehobenen Mittelstand und die Lösungen, mit deren Entwicklung ich normalerweise befasst bin, sind auch auf diesen Anwenderkreis zugeschnitten. Die naheliegende Frage war also, was könnten unsere Kunden damit anfangen ?

Die ersten Schritte waren relativ einfach, SAP-HANA-Studio installiert, ein paar PlugIns dazu und dann mal unser HANA-System aufgeschaltet. Das war der einfache Teil. Wie bei jeder hochkomplexen Software, geht da nicht immer alles glatt und manches Update war eher „kontraproduktiv“. Das ist für ein eher junges Produkt normal und die Probleme liessen sich allesamt schnell lösen.

Der eigentlich schwierige Teil war da anderer Natur. Zunächst mal bringt man HANA unweigerlich mit dem schon leicht abgenutzten Buzzword „BIG-DATA“ in Verbindung. Die in diesem Kontext zur Sprache kommenden Datenmengen sind weit jenseits dessen, was ein mittelständischer SAP-Anwender so in seinen Systemen zu bearbeiten hat, zumindest scheinbar. Wenn wir allerdings an so typische Funktionen wie einen MRP-Lauf oder die zahllosen Reportings aus dem SAP-BW denken, dann wird schnell klar, dass unsere Daten vielleicht nicht so big sind aber small sind sie nun ganz gewiss auch nicht.

Wenn man sie nur oft genug anfasst und durcharbeitet werden auch moderate Datenbestände schnell zu BIG-DATA. Das könnte alles viel schneller gehen, wenn man denn HANA darauf losliesse.

Es geht also in diesem Gedankengang erstmal um Zeitersparnis und damit um eventuell reduzierte Kosten. Eine realistische Kosten-/Nutzenanalyse würde allerdings bei einem großen Teil der Anwender zu der Erkenntnis führen, dass man dann doch lieber auch in Zukunft eine Weile auf seine Daten warten möchte.

HANA kann aber noch viel mehr und da wird es dann wirklich interessant. Ich möchte an dieser Stelle in kleinen Beiträgen dieses „Mehr“ vorstellen und so einige Ideen zu den berühmten Teflonpfannen liefern.

Beginnen möchte ich mit einem funktionalen Element, das auf den schönen Namen „predictive analysis“ hört. Technisch gesehen ist das eine Bibliothek von Funktionen, die ich auf entsprechend aufbereitete Daten anwenden kann, um bestimmte statistische und andere Eigenschaften in Erfahrung zu bringen. Diese Analyse liefert mir Zahlenmaterial, das mich bei operativen Entscheidungen unterstützen kann.

Den wichtigsten dieser Funktionen liegt dabei die Annahme eines sogenannten ergodischen Systems zugrunde. Das bedeutet grob gesprochen, dass ein System sich auch in der Zukunft so verhält, wie es sich in der Vergangenheit verhalten hat. Diese Annahme findet man auch der Risikoanalyse von Banken und Versicherungen. Das ist immer dann eine tragfähige Annahme, wenn wesentliche Systemeigenschaften im betrachteten Zeitraum nicht geändert werden. Systeme funktionieren nur in den Grenzen ihrer Paradigmen.

Wenn man also diese Funktionen auf die eigenen Daten anwendet, sollte die Frage nach diesen Paradigmen immer im Hinterkopf bleiben.

Das war nun ein wenig Metatext zu HANA, in dem zweiten Teil dieser Blogreihe möchte ich ein Beispiel für eine „Teflon-Pfanne“ liefern.

– von Mario Lütkebohle, itelligence AG –

Ähnliche Beiträge

NTT_DATA-Business-Solutions-690x180
Lesen Sie mehr
blog_featured image_simplification1
Lesen Sie mehr
Blogbild_Scrum
Lesen Sie mehr
Image_Gears-on-Digital-Background-690x180
Lesen Sie mehr
Blogbild_Alain-1
Lesen Sie mehr
Feature_Image-Experience-NewOpportunities-690x180
Lesen Sie mehr
Folgen Sie uns: