Newsletter 09/2017

Liebe Leser und Abonnenten,

in diesem Newsletter haben wir wieder Themen ausgewählt, die für sich gesehen einen hohen Informationswert haben. Darüber hinaus stehen sie aber auch in einem inneren, übergeordneten Zusammenhang.

Der Zusammenhang ist einer der Grundgedanken des LEAN-Management, welcher im Kern bedeutet: „Wert ohne Verschwendung zu schaffen“. Darüber hinaus sind die Ansätze des LEAN-Management ideal durch die Instrumente der Digitalisierung zu erfüllen. Zur Digitalisierung muss man u. a. die Prozesse hinsichtlich Möglichkeiten zur Standardisierung und Automatisierung anschauen, um sie dann in digitalisierte Prozesse umzusetzen. Die Umsetzung kann (vielleicht auch sollte) nach einem agilen Vorgehenskonzept erfolgen, um Geschwindigkeit und Flexibilität zu gewährleisten.

Mit unseren Gedanken zu Scaled Agility, Prognose und Dispositionsverfahren, Automatische Optische Inspektion (AOI), Industrie 4.0 sowie Process-Mining skizzieren wir Möglichkeiten, um diesen Grundgedanken in Teilen zu erfüllen.

So basiert das Scaled Agility Framework (SAFe®) auf einem Lean-Agile Mindset. Die Prognose und Disposition nach automatisierbaren Modellen steigert die Effizienz und auch automatisch die optische Inspektion der Qualität. Industrie 4.0 stellt einen konzeptionellen Ansatz zur Verfügung und Prozesswissen auf Basis von realen Daten trägt zur Normierung von Prozessen als Basis für die Digitalisierung bei.

Informationstechnologie ist Treiber des Business und schafft Lösungen, die ohne sie nicht möglich wären. Die Brücke zwischen Informationstechnologie und Business zu schlagen, ist unsere Kernkompetenz.

Lassen Sie sich inspirieren!
Und wie immer: Viel Vergnügen beim Lesen!

Thomas Algermissen
Geschäftsführer ERP Beratungsgesellschaft mbH

Aktuelles

Damit ich Dich besser sehen kann

Autor: Jörg Osarek, VR Business Pionier, its-people GmbH

Trends in der automatischen optischen Inspektion (AOI)

Wohin führt der Weg im Bereich der automatischen optischen Inspektion (AOI)? Welche Trends sind auszumachen?

Google Tango Technologie verwendet neben einem optischen Sensor auch einen Tiefensensor, der ein Infrarot-Muster auf die Umgebung projiziert und dadurch eine Tiefenkarte (Depth Map) in Echtzeit erstellt.

Beide Informationen dienen als Basis für SLAM (Simultaneous Localization and Mapping), wodurch es prinzipiell möglich wird, eine Umgebung direkt in 3D zu scannen und sich darin zu orientieren. Die Tiefenauflösung liegt in etwa im Bereich von 1cm. Ein Gesicht wird also in Klötzchen-Auflösung dargestellt. Die Microsoft Hololens arbeitet ähnlich.

Seitdem Apple Primesense übernommen hat - dem De-Facto-Standard günstiger Tiefensensoren - war klar, dass sich Apple auch im 3D-Computing engagiert. Interessanterweise hat Apple kürzlich sein ARKit vorgestellt, welches ohne zusätzliche Tiefeninformation auskommt. Und auch Googles Antwort darauf namens ARCore arbeitet rein optisch ohne Tiefensensoren, um sich im Raum zu orientieren und diesen zu scannen. KI-Komponenten führen dabei zu immer besseren Ergebnissen bei der Muster- und Objekterkennung.

Und doch würde ich es für verfrüht erachten, das Ende der Tiefen-Technologie auszurufen, denn es gibt viele Entwicklungen, die im Gegenteil sehr erfolgreich verstärkt auf Tiefeninformation setzen. Eher mag es sein, dass kurzfristig in der alleinigen Kombination Optik und Künstliche Intelligenz schneller der Massenmarkt erschlossen werden kann.

Doch schauen wir auf eine Reihe von Beispielen, die mit Tiefeninformationen erstaunliche Ergebnisse erzielen und wie dies auch bei der automatischen optischen Inspektion eingesetzt werden kann. Betrachten wir dabei folgende Aspekte: Messgenauigkeit, Geschwindigkeit, Anwendungsgebiete

Messgenauigkeit:

Während die Primesense-Sensoren der Qualitätsklasse Microsoft Kinect oder @pixabayTango Smartphones im Zentimeter-Bereich arbeiten, ist mit einer anderen Google Technologie eine deutlich höhere Auflösung im Millimeter/Sub-Millimeter-Bereich möglich. Das Projekt Google Soli kreierte einen auf Radar-Technik basierenden Chip, der durch Mikrowellen winzige Gesten und Bewegungen der Hand messen kann. Mehrere Quellen spekulieren ernstzunehmend darüber, dass eine neue Generation von Google Tango Geräten mit solchen Chips ausgestattet werden könnten, um eine deutlich höhere Präzision zu erzielen. Solche Sensoren wären dann auch günstiger in der optischen Inspektion einsetzbar.

Geschwindigkeit:

Ein aktueller Trend im Aufnahmebereich bei VR/AR nennt sich Volumetric Video. Hier wird neben dem optischen Bild auch die Bild-Tiefe aufgezeichnet. Im Frühjahr 2015 präsentierte die Firma Lytro eine Lichtfeld-Kamera für die Aufnahme von Kinofilmen. Neben der sehr großen Kamera wird dem Regisseur zugleich ein Server-System zur Verfügung gestellt, das umfangreiche Berechnungen anstellt, um daraus direkt 3D-Daten zu erzeugen. Die Kamera kann 300 Bilder pro Sekunde mit 755 Megapixeln aufnehmen. Die Präzision der Kamera liegt im Sub-Pixel-Bereich und lässt durch die zusätzliche Tiefeninformationen sehr spannende Dinge zu, wie das filmen von Greenbox-Aufnahmen ohne Greenbox, das nachträgliche Verändern der Tiefenschärfe und das Arbeiten mit Motion-Blur. Doch aufgrund der Sensor-Größe von etwa einem halben Meter und des Preises ist dies sicher nicht die Wahl, wenn es z.B. um die Echtzeit-Inspektion einer Fertigungsstraße geht.

Und - wir müssen auch nicht so weit in die Ferne schweifen.

Im Sommer 2016 habe ich die in Kiel ansässige Raytrix GmbH besucht und mich selbst mit Lichtfeld-Technologie "ablichten" lassen. Raytrix ist ein deutscher Hersteller von Lichtfeld-Kameras mit einer Reihe von professionellen Anwendungsgebieten. Das Spektrum reicht von 3D-Mikroskopie über die Analyse von Flüssigkeitsmechanik bis zur 3D-Optical-Inspection. Die Kamera ist klein und lässt sich somit gut in Fertigungsstraßen verbauen. Damit lassen sich z.B. Elemente wie Pins auf Leiterplatten wesentlich besser prüfen, da hierdurch direkt die Tiefeninformation mit hoher Präzision erfasst wird. Es ist zwar auch möglich, separate 2D-Kameras zu verwenden und mittels Fotogrammetrie daraus 3D-Bilder zu berechnen, doch in der Praxis führen Vibrationen und Erschütterungen dazu, dass diese Kameras häufig neu kalibriert werden müssen. Außerdem ist das Timing kritisch. Sind die verschiedenen Kameras nicht vollständig synchron, werden falsche 3D-Informationen berechnet.

Jörg Osarek von der Raytrix-Lichtfeld-Kamera aufgenommen (links neben dem Monitor). Die Farben auf dem Monitor zeigen die Tiefen-Information."

Mit der Lichtfeld-Kamera mit ihren fest verbauten plenoptischen Sensoren und der Geschwindigkeit einer normalen Video-Kamera, tritt dieses Problem nicht auf, was das Setup zu einer robusten Lösung für die Industrie macht. Auch, wenn der Preis einer solchen Industrie-Kamera deutlich unter dem Kino-Modell von Lytro liegt, stellt die Preis-Sensitivität in der Logistik häufig eine Hürde dar.

Anwendungsgebiete:

Die Liste der Unternehmen, die alleine oder in Kooperationen an 3D-Aufnahme-Technologien arbeiten, wird immer länger. Von Jaunt über Facebook und OTOY bis hin zu Google und Microsoft. Nicht zu vergessen, dass für autonome Fahrzeuge in der Regel ebenfalls Tiefen-Informationen zur Berechnung der Umgebung herangezogen werden, wie für das bereits erwähnte SLAM. Somit ist in den nächsten Jahren mit einer weiteren Verbreitung ebensolcher Sensoren zu rechnen. Die Kombination der eingangs erwähnten 2D-Aufnahmen mit KI-Komponenten und der Ergänzung um 3D-Informationen ermöglicht die Ausweitung heutiger Einsatzgebiete. Und so wird es erforderlich, die klassischen Enterprise-IT-Systeme um eine dreidimensionale Schicht zu erweitern.

Die Zukunft ist dreidimensional - in der echten Welt ebenso wie in der virtuellen Welt.

Links:

Bildquelle: https://pixabay.com/en/camera-lens-camera-lens-photography-932981/

Agile Entwicklung in Unternehmen

Autor: Ralf Rückert, Senior Consultant, its-people ERP Beratungsgesellschaft

Agiles Arbeiten ist seit einigen Jahren ein Schlagwort in der Arbeitswelt von heute. Doch wie genau arbeiten agile Entwicklungsteams? Welches Framework hat sich im Einsatz bewährt?

Während das Management mit klaren Vorgaben und klassischem Reporting arbeitet und Erfolge am Erreichen eindeutiger Ziele misst, planen die agilen Entwicklungsteams ihre Zyklen selbst, immer mit dem Ziel vor Augen, am Ende eines Entwicklungszyklus (z.B. Sprint bei Scrum) ein release-fähiges Produkt zu haben. Schnell stellt sich beim traditionell in Meilensteinen und Phasen denkenden Management Unsicherheit über die Fortschritte und Zielerreichung ein.

Beispielsweise schränkt der klassische Budgetprozess die Flexibilität der Teams ein oder agiles Vorgehen wird in Entwicklungsteams erfolgreich angewendet, aber der Transfer auf die gesamte Produktentwicklung oder das Unternehmen stellt ein Problem dar. Besonders deutlich werden diese Herausforderungen in großen Umsetzungs- und Entwicklungsprojekten. Hier arbeiten oft mehrere agile Teams an einem gemeinsamen Ziel. Um dieses zu erreichen, braucht es eine übergreifende Koordination und Abstimmung.

Über die vergangenen Jahre haben sich einige Agile-Frameworks herausgebildet, die diese Probleme adressieren und zu lösen versuchen. Eines davon ist das „Scaled Agile Framework“, kurz SAFe, das aktuell in der Version 4.5 vorliegt. Entwickelt und konzipiert wurde es von Dean Leffingwell. Mit seiner Organisation SCALED AGILE, INC entwickelt er das Framework ständig weiter. SAFe bedient sich auf der Team-Ebene bei Scrum. Die Teams werden über sogenannte „Agile Release Trains“ gesteuert. Diese wiederum orientieren sich an den Wertschöpfungsketten des Unternehmens und releasen ihre Ergebnisse in sogenannten Program-Inkrementen. In seinen größeren Ausprägungen (Konfigurationen) unterstützt SAFe auch das Portfolio-Management. Gesteuert und koordiniert werden die verschiedenen Ebenen durch unterschiedliche Rollen und vorgegebene Meetings auf jeder Ebene. Durch diese vielfältigen Mittel ist das Framework innerhalb und auf den unterschiedlichen Ebenen beliebig skalierbar.

SAFe-Konfigurationen

AgileZur Unterstützung bei der Einführung bietet SAFe die folgenden vier Konfigurationen an. Diese Konfigurationen stellen eine Blaupause für unterschiedliche Umfelder und Projektgrößen dar. Sie müssen und sollen an die jeweilige Situation angepasst werden.

  • Essential SAFe, seit Version 4.5

  • Portfolio SAFe

  • Large Solution SAFe

  • Full SAFe

Mit diesen Konfigurationen unterstützt SAFe die gesamte Bandbreite an Entwicklungsumgebungen. Mit den situativ angepassten Konfigurationen bekommt man Werkzeuge und Verfahren zur Verfügung gestellt, die Lösungen für die folgenden Problemstellungen bieten:

  • Wie richtet man das Unternehmen auf gemeinsame geschäftliche und technische Ziele aus?

  • Wie können bessere Entscheidungen getroffen werden, um die wirtschaftlichen Ergebnisse zu verbessern?

  • Wie liefert man neue Werte auf einem vorhersehbaren Zeitstrahl, damit der Rest des Unternehmens planen und ausführen kann?

  • Wie verbessert man die Qualität der Lösungen?

  • Wie skaliert man agile Praktiken vom Team zum größeren Programm und Geschäftsbereich und über das Unternehmen hinweg, um bessere Ergebnisse zu erzielen?

  • Wie organisiert man Teams so, dass die Projekte effektiv liefern und die Verzögerungen und die Bürokratie in einer traditionellen, hierarchischen Struktur vermieden werden können?

  • Wie bewältigt und minimiert man Abhängigkeiten zwischen Teams, Projekten und Wertströmen?

  • Wie schafft man ein Umfeld, das die Zusammenarbeit, Innovation und kontinuierliche Verbesserung fördert?

  • Wie fördert man die intrinsische Motivation der Mitarbeiter, die diese Arbeit machen?

  • Wie kann man die Kultur so verändern, dass sie das Versagen toleriert und die Risikobereitschaft und das kontinuierliche Lernen belohnt?

  • Wie kann man den agilen Teams helfen, ohne sie zu blockieren?

  • Wie weiß man, dass die neuen Arbeitsweisen effektiver sind?

  • Wie weiß man, was die agilen Teams machen und misst wie gut sie dabei sind?

Damit stellt dieses, sich ständig weiterentwickelte Framework einen professionellen und ausgereiften Rahmen für agile Entwicklung in Organisationen und Projekten jeder Größe dar.

Berichte & Informationen

Kein Hexenwerk: Materialdisposition in Anlagenbau-, Instandhaltungs- und Reparaturbetrieben

Autor: Theodor von Verschuer, Senior Professional, ERP Beratungsgesellschaft mbH

Wie stellt sich die sinnvolle Vorgehensweise zur optimalen Materialdisposition in Anlagenbau-, Instandhaltungs- und Reparaturbetrieben dar? Was muss berücksichtigt werden, um die optimalen Ergebnisse zu bekommen?

Zunächst finden Sie hier eine Liste, die nebenbei auch verdeutlicht, dass die Trennschärfe nicht so klar ist, wie es zunächst scheint:

  • Geplanter (für Anlagenbau und geplante Instandhaltung) und ungeplanter (für ad hoc Instandhaltung und Reparatur) Verbrauch müssen getrennt berücksichtigt werden. Für ungeplanten Bedarf müssen Vorräte angelegt werden. Für geplanten Bedarf muss terminiert beschafft werden.
  • Ob ungeplanter Verbrauch saison- oder trendabhängig ist, kann anhand der Teileverwendung festgelegt werden und braucht i.d.R. nicht mit mathematischen Verfahren ermittelt werden
  • Die Kritikalität von Teilen bemisst sich nicht nach Eigenschaften des Teils, sondern nach der Verwendung in der Anlage. Steht die Anlage bei Fehlen des Teils, ist sie noch eingeschränkt betreibbar bzw. ist ein Betrieb ohne das Teil eine gewisse Zeit zumutbar (Schild „xxx vorübergehend außer Betrieb“)?
  • Eine große Zahl von Teilenummern weist in der Vergangenheit einen sehr sporadischen Verbrauch auf, was jedoch folgend in signifikanter Menge auftritt. Die Werkstatt füllt daher Platzreserven auf, wenn die Vorräte zu Neige gehen. Ein Gebinde reicht für sehr lange Zeit.
  • Der Wert vieler Teile ist klein gegenüber den Ausfallkosten der Anlagen.

Der Anspruch

80% der Teile sollen vollautomatisch disponiert und ggf. automatisch bestellt werden. Die Disponenten sollen sich auf Teile konzentrieren, deren Wert und/oder Kritikalität eine intensive Betreuung rechtfertigen und auf vom System automatisch ausgewiesene Ausnahmesituationen. Dabei soll mit wenigen Einstellungen in den Materialstammdaten eine zuverlässige Disposition gewährleistet werden.

Das Vorgehen und seine Zuverlässigkeit

SAPMaterial wird grundsätzlich im automatischen Meldepunktverfahren disponiert. Sobald der Bestand unter den Meldepunkt gesunken ist, wird ein Bedarf eingestellt, der nach Ablauf der Lieferzeit den Bestand soweit auffüllt, dass bis zum nächsten Auffüllen der Sicherheitsbestand voraussichtlich nicht angegriffen werden muss.

Geplanter Bedarf wird zur Lieferung zum Bedarfszeitpunkt über Reservierungen in das System eingesteuert. Ungeplanter Bedarf wird auf der Basis von Vergangenheitswerten prognostiziert. Dabei werden Verbrauchsverhalten (konstant, Trend, saisonal, trend-saisonal) und Kritikalität vorgegeben. Das System ermittelt Melde- und Sicherheitsbestand nach bekannten mathematischen Verfahren in Abhängigkeit der Kritikalität des Teils. Wenn das Prognoseverfahren mit unzuverlässigen Aussagen endet (wird auf der Basis von ex-post Prognosen automatisch festgestellt), dann wird auf eine geeignete Heuristik umgeschaltet: Es wird z.B. versucht, Bestand in Höhe der letzten Entnahme, vermindert um einen an der Kritikalität und dem Alter der letzten Entnahme ausgerichteten Faktor, bereitzustellen. Wenn dies zu einer unzumutbaren Kapitalbindung (Systemkonstante) führen würde, dann wird das Teil auf manuelle Bestellpunktdisposition umgestellt und eine Ausnahmemeldung erzeugt.

Stammdatenpflege

Vorteil des Verfahrens ist, dass die Stammdatenpflege für die Disposition auf das nötigste reduziert werden kann ohne Abstriche an der Zuverlässigkeit machen zu müssen:

  • Lieferzeiten können aus vergangener Beschaffung automatisch ermittelt werden

  • Preise können ebenfalls aus vergangener Beschaffung oder aus dem aktuellen Bestandswert ermittelt werden

  • Für die Festlegung der Kritikalität können Warengruppen herangezogen werden, soweit diese ausreichend gut gepflegt sind

  • Für Trend- und Saisonangaben liefern die Mitarbeiter in den Werkstätten i.d.R. gute Anhaltspunkte. Die Vermutung eines konstanten Verbrauchs führt meist nicht zu großen Fehlern, da sich das System periodenweise selbst korrigiert
  • Geeignete Gebindegrößen können aus den Einkaufsdaten übernommen werden

  • Beim Anlegen eines neuen Materials kann i.d.R. auf ein bereits bestehendes Material mit der Annahme verwiesen werden, dass der Verbrauch in ähnlicher Weise stattfinden wird.

Stets wissen was läuft: Den Einkauf in SAP R/3 effektiv und proaktiv ausrichten

Autor: Torsten Zimmermann, IT-Experte für Qualitätsmanagement, Qualitätssicherung, Prozesse, its-people GmbH

Effektives Einkaufsmanagement stellt eine große Herausforderung für viele Unternehmen dar. In SAP R/3 werden hier Möglichkeiten geboten, die Prognoseprozesse strukturiert durchzuführen und es empfiehlt sich dabei, die Einführung in sechs Phasen zu unterteilen.

1) Korrektur der Vergangenheitsdaten

Eine gute Prognose steht und fällt mit der Qualität der Vergangenheitswerte. Für die Korrektur der Vergangenheitsdaten kennt SAP verschiedene Verfahren. Es ist ratsam, die Vergangenheitsdaten für die Prognose entsprechend vorzubereiten. Oft wird vernachlässigt, dass diese Verfahren auch für spätere Korrekturen bei der Prognose verwendet werden können. Im Rahmen der Vorbereitungen sollte man auch die Product Lifecycles der verschiedenen Produkte berücksichtigen. So sollte der Ein- und Auslauf neuer bzw. alter Produkte über die Lebenszyklusplanung gesteuert werden. Dazu wird eine Zeitreihe definiert, die den Lebenszyklus abbildet. Danach wird die Prognose mit der Zeitreihe der entsprechenden Periode multipliziert. So wird der Lebenszyklus in die Prognose eingearbeitet.

Eine variierende Anzahl von Arbeitstagen kann bei der Interpretation der Vergangenheitsdaten ebenfalls berücksichtigt werden. Dazu wird im Prognoseprofil die mittlere Anzahl der Arbeitstage hinterlegt (z. B. 20 Tage für einen Monat). Hat ein Monat nun davon eine abweichende Anzahl von Arbeitstagen, so werden die entsprechenden Werte im Verhältnis angepasst. Die Informationen hierzu kommen aus dem Werkskalender, sodass beispielsweise Betriebsferien oder auch Feiertage in Prognosen berücksichtigt werden können.

Oft beeinflussen verkaufsfördernde Maßnahmen (Promotions) Prognosen und Vergangenheitsdaten. Dazu können verschiedene Arten von Promotionen als einmaliges oder regelmäßiges Event (spezielle Feiertage oder Feste wie Weihnachten oder Ostern) angelegt und mit den dazugehörigen Einflüssen hinterlegt werden. So kann sich eine TV-Werbung zu einer 20%-Steigerung bei Produkt A und zu einer 10%-Reduzierung auf Produkt B auswirken. Letztgenannten Fall vergisst man gerne. Er kann jedoch besonders dann auftreten, wenn Produkt A Substitutionsleistungen in Bezug auf Produkt B besitzt. Ausreißer in den Vergangenheitsdaten können ebenfalls die Prognose verfälschen. Dabei handelt es sich bei Ausreißern um Vergangenheitswerte, die nicht in einem erwarteten Wertebereich liegen. Für die Ausreißerkorrektur stehen verschiedene Methoden zur Auswahl:

  • Ausreißerkorrektur mit der Ex-Post-Methode: Grundlage für die Ausreißerkorrektur ist die Ex-Post-Prognose. Dazu werden die Vergangenheitswerte in zwei Gruppen unterteilt. Die erste Gruppe sind die älteren Vergangenheitsdaten. Sie dienen zur Initialisierung der ExPost-Prognose. Die zweite Gruppe enthält die neueren Vergangenheitswerte. Diese dienen zur Durchführung der ExPost-Prognose. Weiterhin wird ein Sigma-Faktor benötigt. Dieser gibt die Toleranz für die Ausreißerkorrektur an. Je kleiner der Sigma-Faktor ist, desto kleiner ist die Toleranz. Somit wird auch eine größere Anzahl von Ausreißern automatisch korrigiert. Anhand der ExPost-Prognose, der mittleren absoluten Abweichung der Ex-Post-Prognose und des Sigma-Faktors wird der Toleranzbereich für die Ausreißerkorrektur ermittelt. Liegt ein Wert außerhalb des Toleranzbereichs, wird der Wert auf den prognostizierten Wert der Ex-Post-Prognose korrigiert. Welches Prognosemodell bei der Ex-Post-Prognose zum Einsatz kommt, hängt vom Prognosemodell ab. Bei einer automatischen Modellauswahl werden die Schritte 2 und 3 durchgeführt, um ein passendes Prognosemodell zu finden.

  • Ausreißerkontrolle mit der Medianmethode: Sie funktioniert ähnlich wie die vorherige Methode. Die Medianmethode sortiert die Werte der Größe nach und nimmt den Wert in der Mitte. Wären z. B. die Vergangenheitsdaten 8, 10, 13, 16, 18, ist der Median 13. Der Median wird für Grund-, Trendwert und Saisonindex ausgerechnet. Anhand dieser Werte kann die Medianmethode für jede Periode einen Erwartungswert ermitteln. Mit dem Erwartungswert und dem Sigma-Faktor kann nun der Toleranzbereich berechnet werden.

2) Test der Vergangenheitsdaten

Über den Test der Vergangenheitsdaten erhält man die entscheidenden Aussagen zur richtigen Wahl der Prognosemethode. Diese basieren auf den aus Schritt 1 korrigierten Vergangenheitsdaten. Dabei darf die Datenbasis der Vergangenheitswerte nicht zu klein gewählt werden. Ab zwei Saisonzyklen oder Berichtszeiträumen kann ein derartiger Test gefahren werden. Die Praxis zeigt jedoch, dass drei bis vier Zyklen beziehungsweise Berichtszeiträume besser wären. Wichtig ist hierbei die Ermittlung unregelmäßiger Bedarfe. Damit sind Nullwerte in den Vergangenheitswerten gemeint. Wären beispielsweise 66% der Vergangenheitswerte Nullwerte, würde dies einen unregelmäßigen Bedarf darstellen.

Wo liegt hier aber die Grenze zwischen regelmäßigem und unregelmäßigem Bedarf? Wäre der entsprechende Grenzwert bei 30 Prozent anzusetzen? Der richtige Wert ist dem entsprechenden Kontext und Betriebsumfeld beim Kunden anzupassen. Definitiv kann hier keine allgemeingültige Maßzahl über alle Unternehmen und Branchen angegeben werden. Fällt der Test auf einen unregelmäßigen Bedarf positiv aus, empfiehlt sich die Croston-Methode einzusetzen. Im nächsten Schritt wird das Streuungsverhalten der Vergangenheitsdaten bewertet. Ist dieses zu stark, so wird das System Schwierigkeiten bei einer akkuraten Prognosemodellauswahl haben und ein Saison- bzw. Trendverlauf kann ausgeschlossen werden. Ansonsten folgt als Nächstes ein kombinierter Saison- und Trendtest. Dabei wird zunächst auf das Saisonverhalten und dann auf das Trendverhalten hin geprüft. Je nachdem, welcher der beiden Tests bessere Werte liefert, erfolgt dann im nächsten Schritt die Modellwahl.

3) Modellselektion

@fotoliaAufbauend auf den Tests der Vergangenheitsdaten aus Schritt 2 wird anhand des Testergebnisses eine Modellselektion vorgenommen. Dabei ist eine komplexe Fallunterscheidung zu beachten.

Wie bereits erwähnt, liefert die Croston-Methode bei unregelmäßigen Bedarfen die besten Prognose-Ergebnisse. Diese ermittelt die mittlere Bedarfshöhe und die mittlere Dauer zwischen den Nachfragen. Ist beispielsweise die mittlere Bedarfshöhe 10 Stück und die mittlere Dauer 5 Wochen, generieren die Prozesse entlang des Prognosehorizonts alle 5 Wochen einen Bedarf von 10.

Haben die Vergangenheitsdaten eine starke Streuung, ist eine automatische Modellselektion schwierig. Daher wählt hier das System das Konstantmodell mit der exponentiellen Glättung 1. Ordnung aus. Für die Berechnung der Prognose werden die vorgehenden Prognosewerte, die letzten Vergangenheitswerte und der Glättungsfaktor Alpha herangezogen. Ein großer Alpha-Faktor berücksichtigt die Vergangenheit weniger als ein kleiner Alpha-Faktor.

Fällt der Trendtest positiv und der Saisontest negativ aus, so bieten sich nachfolgende Optionen an:

  • Das Konstantmodell mit exponentieller Glättung 1. Ordnung, welche standardmäßig immer berücksichtigt wird.

  • Aufbauend auf der exponentiellen Glättung wird ein Grundwert und ein Trendwert für das Trendmodell berechnet. Daraus leiten sich die Prognosewerte für den Prognosehorizont ab. Hierbei wird ein Glättungsfaktor Alpha für den Grundwert und Glättungsfaktor Beta für den Trendwert herangezogen. Ein großer Alpha-Faktor berücksichtigt den Grundwert weniger als ein kleiner Alpha-Faktor, wobei geringe Beta-Werte stärker den Trend glätten als ein großer Wert.

  • Die lineare Regression kann zur Prognose von Trends verwendet werden. Dabei berücksichtigt diese Methode alle Vergangenheitsdaten und legt eine Gerade mit dem kleinstmöglichen Fehler durch die betreffenden Werte ohne Anwendung einer Glättungsfunktion.

Ist der Saisontest positiv und der Trendtest negativ, werden das Konstantmodell und das Saisonmodell selektiert. Entscheidend sind deshalb in diesem Falle die Glättungsfaktoren Alpha für den Grundwert und Gamma für den Saisonindex. Beta spielt hier keine Rolle, da eine Trend-Komponente in diesem Falle unberücksichtigt bleibt. Ein kleiner Gammawert glättet den Saisonindex stark. Große Gamma-Werte lassen hingegen saisonales Verhalten, beziehungsweise Veränderungen, sehr rasch in die Prognose einfließen.

Sind sowohl Trend- und Saisontest positiv, werden folgende Modelle selektiert:

  • Das Konstantmodell mit exponentieller Glättung 1. Ordnung.

  • Das Trendsaisonmodell als Kombination aus Trend- und Saison-Modell: Es baut auf der exponentiellen Glättung auf, welche somit logischerweise die Glättungsfaktoren Alpha, Beta und Gamma berücksichtigt.

  • Die saisonale lineare Regression berechnet zunächst für jede Periode in der Vergangenheit ein Saisonindex. Diese führt zu einem gemittelten Saisonindex, welcher mit einem Glättungsfaktor geglättet wird. Die Vergangenheitsdaten werden anschließend gemäß der saisonalen Indizes korrigiert und eine lineare Regression durchgeführt. Die berechneten Saisonindizes werden auf die Ergebnisse der linearen Regression angewendet. Dies ergibt dann das Ergebnis der Prognose.

4) Modellauswahl

Nun stellt sich die Frage, welches der ermittelten Modelle am besten geeignet wäre? Die Antwort ist einfach: Das Modell mit dem geringsten Fehlermaß. Je nachdem, ob ein Konstant-, Trend-, Saison- oder Trendsaisonmodell ausgewählt wird, können entsprechend die Faktoren Alpha, Beta und Gamma parametrisiert werden. Hierbei ist einfach strickt die Relation Konstant gleich Alpha, Trend gleich Beta und Saison gleich Gamma anzuwenden. Beim Trend- und Saisonmodell ist dabei stets auch ein Grundwert, also das Konstantmodell zu berücksichtigen.

Das Trendsaisonmodell ist eine Kombination aus Trend- und Saisonmodell, welches in der Konsequenz alle drei Glättungsfaktoren berücksichtigt. Um hier die optimalen Parameter zu finden, testet das System die verschiedenen Kombinationen durch. Dazu muss für jeden Faktor eine Unter-und Obergrenze festgelegt werden (z. B. 0,1 bis 0,5). Daneben benötigt das System noch eine Schrittweite, um die verschiedenen Möglichkeiten zwischen Unter- und Obergrenze durchzutesten. Bei einer Untergrenze von 0,1, einer Obergrenze von 0,7 und einer Schrittweite von 0,1, werden die Kombinationen 0,1, 0,2, 0,3, 0,4, 0,5, 0,6 und 0,7 durchgetestet. Die Schrittweite kann und sollte bei Bedarf angepasst werden, da sie die Ergebnisse bzgl. der Modellauswahl signifikant beeinflusst. Im Standard ist die Schrittweite im Übrigen auf 0,2 eingestellt. Denn für jede Parameter-Kombination der Glättungsfaktoren wird die mittlere absolute Abweichung (MAD) berechnet. Die Kombination mit dem geringsten MAD wird dabei als das Beste zu verwendete Modell angesehen. Darüber hinaus können auch andere Fehlermaße zur Parameterfindung ausgewählt oder gar eigene Verfahren definiert werden.

5) Prognose

Anhand des ausgewählten Modells findet nun die Prognose statt. Hierzu wird die Prognose selbst und eine Ex-Post-Prognose durchgeführt. Um nicht bei jedem Prognoselauf die Schritte 2 bis 4 durchführen zu müssen, bietet das System die Möglichkeit, die Prognoseeinstellungen für eine Merkmalskombination abzuspeichern (z. B. Produkt und Lokation). Dies spart Laufzeit.

Bei jedem Prognoselauf ermittelt SAP für jedes untersuchte Produkt auf Basis standardisierter Fehlermaße entsprechende Kennzahlen. Wenn dabei ein bestimmtes Fehlermaß überschritten wird und damit ersichtlich wird, dass die momentanen Prognoseeinstellungen kein gutes Ergebnis mehr hervorbringen, empfehlen sich die Schritte 2 bis 4. Nach einer Prognose können noch weitere Korrekturen notwendig sein (z. B. Arbeitstagekorrektur; vgl. dazu Schritt 1).

6) Kontrolle der Prognosequalität

Im Abschluss der Prognosemaßnahmen sind die Ergebnisse auf deren Genauigkeit zu prüfen. Dazu findet ein Vergleich der Ex-Post-Prognose mit den Vergangenheitsdaten statt. Zum Vergleich stehen unterschiedliche Fehlermaße zur Verfügung.

Standardmäßig werden folgende Fehlermaße (siehe auch Tabelle) unterstützt:

  • Fehlersumme (ET)

  • Mittlere absolute Abweichung (MAD)

  • Mittlerer quadratischer Fehler (MSE)

  • Wurzel des mittleren quadratischen Fehlers (RMSE)

  • Mittlerer absoluter prozentualer Fehler (MAPE)

  • Mittlerer prozentualer Fehler (MPE)

Zusätzlich zu diesen Fehlermaßen können auch eigene Fehlermaße definiert werden. Um nicht alle Prognoseergebnisse im Detail begutachten zu müssen, empfiehlt sich die Nutzung der Prognoseprotokollierung. Dabei können die Systeme Ausnahmemeldungen, sogenannte Alerts, erzeugen. Durch Anpassung der Grenzwerte in den Prognoseprofilen kann gesteuert werden, wann die Alerts ausgelöst werden.

Die Konfiguration kann dabei festlegen, wann eine Informationsmeldung, Warnmeldung oder Fehlermeldung auszugeben ist. Anhand der Meldungen muss der Sachbearbeiter nun die Prognose korrigieren (Prognoseeinstellungen oder Vergangenheitsdaten). Dazu kann er beispielsweise eine interaktive Prognose durchführen und eine manuelle Auswahl der Prognosemethode vornehmen.

Fazit

Die Etablierung einer Prognose innerhalb von SAP MM oder SAP APO kann den Einkauf im Rahmen des Einkaufsmanagements von vielen Routinearbeiten entlasten, wenn diese auf den konkreten Kontext und die unternehmensspezifischen Anforderungen beziehungsweise Bedürfnisse angepasst sind. Hierbei helfen die SAP Standardmodelle in vielen Fällen.

In Bezug auf die Ausnahmen ist es entscheidend, dass hierzu in beiden Systemen eigene Routinen und Verfahren etabliert werden können. Wichtig ist auch eine umfassende Vorbereitung im Rahmen der Einführung von Prognoseprozessen. Es gibt zwar viele Fehlerkenngrößen in SAP, deren Bedeutung aber oft unterschätzt oder deren Werte nicht beachtet werden. In der Folge können sich Prognosefehler kumulieren, sodass die Aussagekraft der Prognosen gering ist.

Es empfiehlt sich deshalb, professionelle Beratung im Rahmen dieser Maßnahmen zu berücksichtigen, damit sich ein ROI möglichst rasch realisieren lässt.

Prozessanalyse mit Process-Mining einfach gemacht

Autor: Thomas Algermissen, Geschäftsführer its-people ERP Beratungsgesellschaft mbH

Prozessanalyse transparenter, schneller, valider und kostengünstiger zu machen, ist ein wesentlicher Bestandteil von „Process-Mining“. Process Mining schafft schnell Klarheit darüber, wie Ihre Prozesse funktionieren, wo Probleme entstehen und warum.

Es werden aus den operativen Systemen strukturierte und unstrukturierte Daten zusammengestellt und in das Process-Mining-System gegeben. Damit erreicht man einen „Moment of Truth“ bezogen auf das Ergebnis.

Beispielhaft ergibt das dann folgende Darstellung:

Als System steht hierfür die Lösung myinvenio der Firma Cognitive Technology zur Verfügung, welche wir von its-people ERP für unsere Beratungsprozesse erfolgreich einsetzen. In der digitalen Zukunft ist Geschwindigkeit ein großes Thema. Mit myinvenio steht uns ein valides, schnelles und überaus aussagekräftiges Beratungstool zur Verfügung.

Mit myinvenio können Sie das volle Potenzial Ihrer Prozess-Daten ausschöpfen, faktenbasierte Entscheidungen treffen und gezielt Lösungsansätze entwickeln.

Wir haben dazu unsere Hausaufgaben gemacht und unterstützen Sie beim Einsatz dieses Process-Mining Tools zur Analyse Ihrer Prozesse effektiv und wirkungsvoll. Sprechen Sie uns an: erp@its-people.de oder gehen Sie auf folgenden link.

Industrie 4.0 – Nichts ist stetiger als der Wandel

Autor: Torsten Zimmermann, IT-Experte für Qualitätsmanagement, Qualitätssicherung, Prozesse, its-people GmbH

Teil 7,  Datensicherheit wird oft unterschätzt

Wenn über Industrie 4.0 diskutiert wird, so werden viele Aspekte behandelt. Oft schenkt man aber dem Sicherheitsthema nicht die Bedeutung, welche sie eigentlich verdient hätte. Bei meiner Aussage „Datensicherheit wird oft unterschätzt“ liegt aber die Betrachtung auf der, für die Situation angemessenen Maßnahmen, für eine wichtige, umfassende Sicherheitspolitik.

Da hier eine Vernetzung aller Systeme stattfindet und die Kommunikation über verschiedene Standorte oder mit Partnern und Kunden in Bezug auf relevante Produktionsdaten stattfinden kann, ergeben sich hier neue Angriffspunkte für das betreffende Unternehmen.

Mögliche Sicherheitsrisiken wären zum Beispiel:

  • Ausspähen von Produktions- oder Kundendaten, um Mitbewerbern Wettbewerbsvorteile zu verschaffen.

  • Einspielen von Schadsoftware mit dem Ziel, die betreffende Infrastruktur für längere Zeit lahmzulegen.

  • Geringfügige Veränderung von Produktionsdaten, um Fehlproduktionen zu generieren. Das Ziel könnte hierbei sein, das Kundenvertrauen in das betreffende Unternehmen zu reduzieren.

  • Veränderung von Umgebungsinformationen wie zum Beispiel Luftfeuchtigkeit oder Temperatur, damit die Produktionsanlage aufgrund unzureichender Anpassung Schaden nimmt oder sich die Ausschussrate erhöht.

  • Gezielte Bombardierung mit manipulierten Informationen mit Fokus auf eine bestimmte Branche, um diese auszuschalten.

Diese und andere neue Bedrohungen gilt es bei den regelmäßigen Sicherheitsbetrachtungen / Security-Audits mit aufzunehmen. Hierzu sind verschiedene Lösungen vorstellbar, um sich den neuen Gefahren erfolgreich stellen zu können.

Diese reichen dann von der kompletten Abschottung unternehmenskritischer (IT-)Bereiche mit dezidierten Zugängen über ausgewiesene Gates, welche unter besonderer Überwachung stehen, bis hin zum Einsatz umfangreicher, aktiver Security-Lösungen (jenseits des ordinären Virusscanners) und intelligenten Überwachungssystemen für die immer komplexer werdende IT-Infrastrukturen.

Daneben gibt es im Rahmen der IT-Sicherheit noch den Aspekt der Datenverfügbarkeit und -vollständigkeit. Im Falle von Systemausfällen müssen die Informationen rasch wieder verfügbar sein. An sich ist dieses Thema nun wirklich nicht neu. Jedoch muss man sich darauf einstellen, möglicherweise über ganz andere Datenmengen und Zeiträume zu sprechen, als dies heute der Fall ist.

So könnte es vernetzte Systeme geben, welche bereits nach Minuten ohne neue Informationszulieferung zum Stilstand kämen, da größere Zwischenpufferung von Daten in diesem angedachten Szenario keine Lösung wäre. Dieser Fall könnte beispielsweise genau dann eintreten, wenn das besagte System durch Realtime-Statusänderungen, initiiert durch andere mit ihm vernetzte Systeme, andere Entscheidungen als vorgesehen treffen würde.

Link Teil 1

Link Teil 2

Link Teil 3

Link Teil 4

Link Teil 5

Link Teil 6


Newsletter 09/2017

Sie möchten den its-people Newsletter nicht mehr erhalten?
Melden Sie sich hier vom Newsletter ab .

Impressum

enterpriser GmbH & Co. KG · Lyoner Straße 44-48 · 60528 Frankfurt
Telefon : +49 69 24751980 · E-Mail: webmaster@its-people.de
Geschäftsführer: Thomas Algermissen, Thomas Kraemer
HRA 42547 - Amtsgericht Frankfurt

Copyright 2015 © enterpriser GmbH & Co KG. Alle Rechte vorbehalten. enterpriser GmbH & Co KG versendet E-Mails nicht unaufgefordert. its-people© und bcs-people©: Dachmarken der enterpriser GmbH & Co. KG