Die Unternehmensplanung mit Predictive Analytics

22:58 06 November in Big Data

Anwender unterliegen oftmals der Vorstellung, dass sich Konsequenzen in Bezug auf Zielgrößen in Echtzeit betrachten lassen, wenn zuvor lediglich an einem Parameter gedreht werden.

Eine derartige Echtzeitbetrachtung ist zwar technisch einfach zu realisieren, allerdings bedarf es für aussagekräftige Szenarien weiterer Faktoren.

Wird beispielsweise der Parameter des Währungskurses in einem Betrieb der Automobilindustrie verändert, kann dies aufgrund von ungünstigen Währungsrelationen negative Konsequenzen für geographische Produktionsstätten nach sich ziehen. Lohnen sich Produktionen an bestimmten Standorten nicht mehr, bedarf es einer Folgeentscheidung hinsichtlich des Produktionsstandorts.

Aufgrund der Veränderung der Rahmenparameter können sich alternative Handlungsaktivitäten wie der Eintritt in andere regionale Märkte als attraktiv darstellen.

Es müssen dementsprechend umfassende Szenarien unter Nutzung der vorhandenen Ableitungen und der Integration der Wirkung von Anpassungsentscheidungen erstellt und sämtliche getätigten Änderungen im Rahmen einer Simulation zu Szenarien zusammengeführt werden.

Für die Erstellung neuer Szenarien, bieten sich vorhandene Szenarien und die gegebene Basislösung an.

Mit den Simulationen soll ein gemeinsames Verständnis bezüglich der Umwelt- und Unternehmensentwicklung hergestellt werden.

Eine sinnvolle Verteilung des Verarbeitungsprozesses wird durch das typische Erfordernis der Einbeziehung mehrere Planer gewährleistet.

Dies ermöglicht das Durchspielen der Entscheidungen in beliebigen Szenarien und den Vergleich mit alternativen Szenarien über langfristige Zeiträume hinweg.

Zudem können Risiken zu Bandbreiten und die Aggregation mit einer Monte-Carlo-Simulation einbezogen werden.

Die Monte-Carlo-Simulation stellt ein Verfahren aus der Stochastik dar. Die Basis der Monte-Carlo-Simulation ist eine sehr große Zahl gleichartiger Zufallsexperimente.

Die Simulation versucht, mit Hilfe der Wahrscheinlichkeitstheorie analytisch nicht oder nur aufwendig lösbare Probleme numerisch zu lösen.

Zufallsexperimente können real oder in Computerberechnungen über die Erzeugung geeigneter Zufallszahlen durchgeführt werden.

Verteilungsabhängige Zufallszahlen und große Datenspeicher werden von Funktionsbibliotheken unterstützt. Dies ermöglicht die Erstellung von Value at Risk (VaR)-Berechnungen. Der Begriff Value at Risk bezeichnet ein Risikomaß für die Exposure, die offene Risikopositionen von Finanzinstrumenten und Basiswerten innerhalb des Geschäftsvolumens.

Mit Hilfe des Value at Risk wird die wahrscheinliche maximale Verlusthöhe innerhalb eines gegebenen Zeitraums ermittelt.

Pauschale Verschlankung der Planung ist nicht der richtige Weg

Die zunehmende Komplexität der Unternehmensplanung, die sehr oft durch einen hohen Detaillierungsgrad geprägt ist, stellt sich grundsätzlich als Herausforderung dar.

Für die Komplexität zeichnet die Übernahme von Positionsrahmen aus operativen Systemen wie der Kostenrechnung verantwortlich, wo beispielsweise der Absatz als Grundlage für die Produktionsplanung sehr detailliert geplant wird.

Eine solche Granularität ist aber für die Anforderungen einer integrierten Gesamtplanung in den meisten Fällen gar nicht erforderlich.

Diese hohe Granularität führt aber zu Folge-Aufwendungen dahingehend, dass beispielsweise eine Leistungsverrechnung durch eine zu detaillierte Kostenstellenstruktur zu komplex wird und das ein erhöhter Aufwand für eine Aktualisierung durch einen Jahresend-Forecast betrieben werden muss.

Vor diesem Hintergrund streben viele Unternehmen die Verschlankung ihrer Planungen an. Allerdings ist davon abzuraten, im Rahmen dieser Bestrebungen zu pauschalisiert vorzugehen.

Werden beispielsweise Erlös- und Kostenpositionen bereichsübergreifend zu Gruppen zusammengefasst und einzelne Positionen nicht mehr detailliert geplant, sondern lediglich fortgeschrieben, so geht die erforderliche Transparenz verloren und Ursachen im Rahmen von Abweichungsanalysen können möglicherweise nicht mehr nachvollziehbar identifiziert werden.

Diese Vorgehensweise der Vereinfachung aller Planungsobjekte ohne Beachtung ihrer jeweiligen planerischen Bedeutung ist in der Ära von von Predictive Analytics nicht mehr zeitgemäß.

Denn jeder Bereich erfordert grundsätzlich eine individuelle Betrachtung bezüglich der Genauigkeit der Planung.

Unternehmen sollten im Vorfeld analysieren, welche Planungspositionen am genauesten zu betrachten und wo potentielle Abweichungen zu erwarten sind.

Es gilt weiter zu prüfen, ob und warum nicht möglicherweise Grundlage der Verschlankung der vergangene Kontrollerfolg sein kann.

Der Planungs- und Kontrollzweck sollte bei der Reduktion der Kostenobjekte im Vordergrund stehen, wofür sich erneut das Instrument von Predictive Analytics anbietet.

Grundsätzlich gilt es, im Rahmen der ABC-Analyse diverse Einflussfaktoren zu betrachten.

Dabei stellt die Betragshöhe der potentiellen Planungsgrößen einen wichtigen Treiber dar. In diesem Zusammenhang können Positionen von geringem Wert zusammengefasst werden.

Weiterhin muss geprüft werden, welche Positionen in der Vergangenheit die höchsten Abweichungen verursachten. Für die identifizierten Positionen mit potentiell hohen Abweichungen empfiehlt sich eine genauere Planung.

Zu prüfen ist auch der Faktor der Beeinflussbarkeit. So werden Positionen wie Personalkosten nicht kurzfristig beeinflussbar sein, obwohl die entsprechende Betragshöhe absolut ist.

Zudem empfiehlt sich eine Analyse, inwiefern und wo Anpassungsmaßnahmen bereits in der Vergangenheit zu Erfolgen führten.

Die gewählten  Einflussfaktoren Höhe der Kosten, Abweichungshöhe, Lerneffekte und Beeinflussbarkeit gewähren bereits einen differenzierteren Überblick, aus welchem nunmehr konkrete Bündelungsaktivitäten abgeleitet werden müssen.

Eine typische Segmentierung führt zum Erhalt bereichsindividueller Gruppierungsvorschläge.

Abhängigkeiten zwischen Positionen bzw. korrelierende Positionen stellen weitere Einflussfaktoren für eine Verdichtung dar.

Wird die Modellreduktion nicht nur über Positionen, sondern über weitere Dimensionen wie Produkte, Kostenstellen oder Bereiche durchgeführt empfiehlt sich die Erzeugung von Stellvertreter-Objekten.

Produktions- und Kostenfunktionen werden in ERP-Systemen detailliert modelliert und für die Ableitung von Planungswerten herangezogen werden. Allerdings sind diese zu granular für die Budgetierung und für Simulationen.

Für die Produktionsplanung bestehen bereits Ansätze zur Aggregation dieser Abhängigkeiten. Auf den Bereich der Budgetierung können diese allerdings noch nicht übertragen werden.

Unterstützung durch Planungssoftware

Die Unterstützung der bereichsdifferenzierenden Verdichtung durch die entsprechende Planungssoftware ist bei der Umsetzung einer solchen verschlankten Lösung von hoher Bedeutung.

Je nach Planungsobjekt müssen Planungsmasken dynamisch unterschiedliche Planungspositionen anbieten und bereichsbezogene Verdichtungen müssen auf dieser Basis darstellbar sein.

Wie Strukturen die Tendenz aufweisen, sich zu verselbständigen, so verhält es sich auch mit Planungsverschlankungen.

Veränderungen hinsichtlich der Einflussfaktoren unterhalb der Planungsstruktur werden unter Umständen nicht bemerkt, da die Aggregation auch die Struktur der Abweichung verändert. Daraus resultiert in einem solchen System das Erfordernis der regelmäßigen Hinterfragung hinsichtlich des Zweckbezuges.

Eine Integration in bereits existierende Anwendungen ist ein erfolgskritischer Faktor für einen flächendeckenden Einsatz von Predictive Analytics.

Innovative Gesamtlösungen sind auf eine enge Anbindung an bereits vorhandene Anwendungen angewiesen, auch wenn etablierte Systeme in ihren analytischen Funktionen meist limitiert sind.

Eine pauschale Verschlankung der Planung ist im Zeitalter von Predictive Analytics nicht der richtige Weg.