Optimierung von Puffergrößen und Prozeßzeiten zur Folgenminimierung


frank heller Senior Consultant der IPT Software GmbH in Wolfsburg

Autor

Dr. Frank Heller

IPT Software GmbH

Standort Paderborn


Status

Senior Consultant


Veröffentlichung

Juni 2008


Die Betrachtung eines Bereiches unterscheidet sich von der einer Station insofern, als Bereiche durch Puffer voneinander entkoppelt und somit nicht so sensibel gegenüber Stillständen von Vorgängern oder Nachfolgern sind. Die Vermeidung der für die längsten Stillstände verantwortlichen Störung an einer Station würde keine Erhöhung des Anlagennutzungsgrads nach sich ziehen, wenn dessen Bereich ohnehin schiebend auf den Folgebereich oder ziehend auf den Vorgängerbereich wirkt, also für Staus im nachfolgenden bzw. Fehlmengen im vorgelagerten Puffer sorgt.

Entsprechend der Untersuchungen im Rahmen des Stand der Technik wurden sowohl die Methoden der Warteschlangentheorie als auch die der Simulation mit definierten Einschränkungen als hochgradig geeignet klassifiziert. Die Entscheidung für eine Methode hängt zum einen von der Komplexität der zu betrachtenden Anlage und zum anderen von der zu verlangenden Richtigkeit der Ergebnisse ab. Die Warteschlangentheorien stoßen bei unübersichtlichen Prozessen oder mangelhaften Daten schnell an ihre Grenzen bzw. liefern selbst bei detailliertesten Daten nur wahrscheinliche Ergebnisse, wogegen die Erstellung eines praxisnahen Simulationsmodells wiederum sehr aufwendig ist.

8. Für die Einführung eines Störungsmanagement-Systems sollte die Betrachtung der Bearbeitungsreihenfolge, deren Taktzeiten, die zwischengeschalteten Puffer sowie Ausschleus- und Einschleuspunkte bereits im Vorfeld erste Ergebnisse über das zu erwartende Optimierungspotential liefern. Hierfür sind die Ergebnisse der Wahrscheinlichkeitsrechnung insofern detailliert genug, als sie über indirekte Störungsverluste zwischen den Bereichen informieren und das Optimierungspotential aufdecken, auch wenn in der Regel keine direkten Aussagen über Bottlenecks möglich sind. In der Regel sind dem Betreiber von Montage- oder Fertigungsanlagen die Größenordnungen der Störungsverluste bewußt. Tatsächlich müssen jedoch wesentlich höhere Verluste akzeptiert werden als die Berechnungen der reinen Stillstandszeiten ergeben. Diese Abweichungen basieren zum einen auf den verschiedensten Verkettungseigenschaften der Montagestationen, den divergenten Reaktionen auf Stillstände, Staus oder Fehlmengen seitens des Personals in vor- oder nachgelagerten Bereichen und nicht zuletzt auf dem fehlenden Verständnis für die Zusammenhänge der gesamten Montagelinie. Nicht zuletzt dieser Aspekt sorgt auch für die Skepsis gegenüber errechneten, theoretisch erreichbaren Nutzungsgradsteigerungen. Diese Skepsis muß bei einer Einführung sowohl beim Management als auch bei der exekutiven Instandhaltung, Wartung etc. grundlegend beseitigt werden. Folglich sollten die ersten Stationen zur Einführung nicht nur die höchsten Stillstände aufweisen, sondern auch in Bereichen mit signifikanten Staus oder Fehlmengen liegen. Diese Bereiche lassen sich bereits anhand steuerungsexterner Daten mit akzeptablem Aufwand ermitteln.

Zu erklärende Verluste über die Stillstandszeiten hinaus basieren in erster Linie auf Staus oder Fehlmengen innerhalb der Puffer, also in Bereichen, in denen die Ausfallhäufigkeit des Vorgängers in Summe im Vergleich zur eigenen relativ wenig differiert, jedoch zeitzyklisch versetzt ist. Erfolgt die Bedienung dementsprechend schneller als die Abfertigung 1 < 2, kommt es zu einem für eine Pufferauslegung als notwendige Ausgangsvoraussetzung zu betrachtenden Stau bzw. im umgekehrten Fall zu Fehlteilen. Variiert die Ausfallhäufigkeit hingegen zu stark, beispielsweise 1 << 2, käme es zum permanenten Stau mit maximal ausgelasteter Warteschlange, in welcher nur selten Veränderungen auftreten, woraus folgt, daß der zwischengeschaltete Puffer zur Entkopplung der Maschinen bedeutungslos würde. In Analogie muß das grobe Vorgehen in Aufspüren der häufigst konstant gestörten Nachbarstationen, Einordnung bezüglich der Dringlichkeit anhand der Position und die eigentliche Berechnung optimaler Puffergrößen anhand ausreichend großer Erhebungszeiträume unterteilt werden. Im Anschluß erfolgt die Evaluation der Puffervorschläge an den kritischsten Stellen durch den Vergleich mit der Realität.

9. Für Berechnungen im Vorfeld sollte anhand der Taktzeiten, den näherungsweisen Stillständen und dem Pufferverhalten auf Mißverhältnisse innerhalb der Anlagenkonstruktion geschlossen werden. Die gravierendsten Nutzungsgradsteigerungen lassen sich durch die Optimierung der Entkopplungen erreichen und sollten dementsprechend erschöpfend genutzt werden. In der Praxis sind Anlagen für die Großserienfertigung /-montage jedoch häufig auf engstem Raum gebaut, woraus resultiert, daß zusätzliche Puffer entweder keinen Platz haben oder die zu puffernden Teile zu sperrig zum Aus- und Einschleusen sind.

Nach möglichen Änderungen innerhalb der Pufferauslegung werden kritische Stationen noch immer hohe Stillstände verursachen, liegen aber eventuell in unkritischen Bereichen und eignen sich damit nicht für die Einführung.

10. Der Nutzungsgrad einer Anlage errechnet sich aus dem Verhältnis der genutzten Zeit aller Stationen inklusive Stillstände, Staus, Fehlmengen etc. zur theoretisch möglichen Nutzungszeit. Demnach würde die Betreibung einer Anlage ohne Zwischenfälle zwar einen Nutzungsgrad von 100% ergeben, was aber nicht bedeutet, daß die Anlage optimal arbeitet. Um ein Optimum zu erreichen und damit einen realistischen theoretischen Vergleichswert zu erzielen, müssen vorab die Prozeßzeiten aller Bereiche einer Anlage optimiert werden. Das heißt, alle Steuerungsprogramme sind qualitativ dahingehend zu prüfen, ob innerhalb einer Zelle bereits unnötige Wartezeiten entstehen, Programme umständlich implementiert sind und die Prozeßgeschwindigkeiten optimiert sind.

Gerade die Güte der Steuerungsprogramme sollte vom Betreiber permanent in Frage gestellt werden, da sie in der Regel von der Konstruktionsabteilung zu einem Zeitpunkt erstellt werden, zu dem die Anlage lediglich als Konstruktionszeichnung bzw. als Computermodell existiert. Nachträgliche Änderungen wie zusätzlich integrierte oder entnommene Stationen, zusätzliche Tätigkeiten, Anfahrpunkte etc. werden in der Regel nicht neu kalkuliert, beinhalten in der Großserienfertigung jedoch schnell einen Anteil von 10 - 15% aller Änderungen.

11. Nach derartigen konstruktiven Änderungen und Optimierungen der Steuerungsprogramme wird sich der tatsächliche Nutzungsgrad bzw. deren Kennzahl der meisten Betreiber bereits drastisch verschlechtert haben. Parallel verschlechtert sich die Auslegungsqualität der Puffer zwischen den Einzelbereichen, bildet in diesem Zusammenhang aber die erste realistische Basis für die geplante, zielorientierte Nutzung von Simulations-, Störungsmanagement- und IPS-Systemen. Der Aufwand hält sich jedoch in Grenzen, da derartige Maßnahmen nacheinander von Zelle zu Zelle vorgenommen werden können und trotz der Verschlechterung der Nutzungsgradkennzahl in der Regel eine Erhöhung, zumindest aber keine Verschlechterung des Anlagen-Outputs bedeuten, da die Produktivität jeder optimierten Zelle steigen muß.

12. Im Anschluß sollte sich die Neuauslegung der Puffer in der Form anschließen, daß Berechungen oder Simulationen bereits die neuen Prozeßzeiten und die nach wie vor unveränderten Störungshäufigkeiten und -zeiten der Stationen zuzüglich aller Restriktionen über maximalen Platz für Puffer, Ein- und Ausschleusgegebenheiten berücksichtigen. Hierfür lieferten aufgrund der Anzahl verschieden leistungsfähiger Stationen und Bereiche in der Großserienfertigung mathematische Theorien keine verläßlichen Ergebnisse. Unabhängig davon ist das Risiko, mit eventuell verfälschten Aussagen der Wahrscheinlichkeitsrechnung die anfänglich zu optimierenden Bereiche und Stationen zu lokalisieren, relativ hoch, da resultierende Output-Erhöhung der Gesamtanlage meist als Kennzahl für den Erfolg des Projekts genommen wird.

13. Das zugrunde gelegte Simulationsmodell muß alle ausschlaggebenden Einflußfaktoren beinhalten, um realistische Ergebnisse zu erzielen. Welche das wiederum sind, kann nur in Zusammenhang mit der jeweiligen Montage- bzw. Fertigungslinie entschieden werden, wobei darauf zu achten ist, daß Fehlurteile beim Aufbau der Montagelinie hinterfragt und anhand der Simulationsergebnisse bestätigt werden können. Ausschlaggebende Kriterien, Attribute und grobe Vorgehensweise für den Aufbau des Modells sind:

Berücksichtigung aller Puffer bzw. Ein- und Ausschleuspunkte zur Entkopplung der einzelnen Bereiche. Eventuelle Unterscheidung zwischen diesen, wenn beim Aus-/Einschleusen Takte verloren gehen und diese in Summe bereits das Ergebnis verfälschen könnten.

Aggregation einzelner Stationen/Zellen zu einem Bereich, wenn die Stationen fest verbunden sind, also bei Stillstand einer Station alle anderen auch stehen, ist zur Vereinfachung zulässig.

Prozeßzeiten, eventuelle Toleranzen und unterschiedliche Takte bei Montageabweichungen parallel bearbeiteter Erzeugnisse bzw. hierfür notwendiges Zu- und Abschalten einzelner Bereiche. Ausschlaggebende Prozeßzeit ist die der langsamsten Station eines aggregierten Knotens.

Berücksichtigung notwendiger Wartezeiten zwischen zwei Takten (Zurückfahren in Nullposition, Reinigung der Station, Betriebsmittel etc.)

Berücksichtigung aller Störungen aggregierter Stationen, Pausen- und Wartungszeiten sowie logistische Unterbrechungen des Montagebetriebes (fehlende Baugruppen, Teile etc.).

Berücksichtigung möglicher Produktionsreihenfolgevariationen auf dem Weg zum fertigen Erzeugnis.

14. Die Simulation der Anlage sollte während der Einführung permanent anhand aktueller Daten wiederholt werden, da sich änderndes Störungsverhalten, ändernde Prozeßzeiten etc. direkt auf das komplette Anlagenverhalten auswirken.

15. In diesem Zusammenhang simulieren auf dem Markt bekannte Systeme anhand definierter Aggregationskennzahlen alle hierfür möglichen Ereigniskonstellationen und decken Schwachpunkte der Montageanlage auf. Versuche haben jedoch ergeben, daß die Resultate oft realitätsfern ausfallen, da die zugrunde gelegten Kennzahlen auch Ereignisse berücksichtigen, die in der Praxis nicht bzw. äußerst selten auftreten und damit das Ergebnis verfälschen. Die Resultate verlangen häufig zu hohe Entkopplungsmaßnahmen, Prozeßzeiten etc. Es wird jedoch vernachlässigt, daß konstruktive Änderungen sehr aufwendig und in der Regel auch endgültig sind. Gleichzeitig treten durch die Erhöhung der Prozeßzeiten wiederum verstärkt Störungen in diesen Bereichen als Nebenwirkungen auf, woraus weiter resultiert, daß die Simulationsergebnisse bereits veraltet sind.

Die Simulation für komplexe und investitionsintensive Anlagen ergibt verwertbarere Ergebnisse, wenn die Produktion der Vergangenheit anhand aufgezeichneter Daten erneut nachvollzogen wird und dabei der Zeitraum so gewählt wird, daß die Daten signifikant dem typischen Anlagenverhalten entsprechen. Auf diese Weise wird sichergestellt, daß sämtliche Ereigniskonstellationen der Realität entsprechen und die Anlage so dimensioniiert wird, daß sie in beispielsweise 70 bis 80% aller Fälle optimal ausgelegt ist. Diese Vorgehensweise setzt jedoch voraus, daß dieser Prozeß permanent wiederholt wird und Änderungsvorschläge auch umgesetzt werden können. Gleichzeitig bietet es aber auch den Vorteil, daß stellenweise Verschlechterungen wie beispielsweise erhöhte Störungen durch erhöhte Prozeßgeschwindigkeiten bereits nach kurzer Zeit auffallen.