Grundlagen: Probabilistik - Optimierung
Hinweis: Dieses Kapitel wird zur Zeit erarbeitet!
Charakteristik
"Klassische" Nennwert-Optimierung bewertet die Güte einer Lösung nur auf Grundlage der "exakten Werte" von Bewertungsgrößen, welche aus den momentanen "exakten Werten" der Inputgrößen mit einem deterministischen Modell berechnet werden:
- Nennwert-otimierte Lösungen für technische Probleme liegen meist an den Restriktionsgrenzen, da die technisch-physikalischen Grenzen weitestgehend ausgenutzt werden.
- Man erhält damit nur idealisierte Lösungen, da in der realen Welt sowohl die Geometrie als auch die Stoff- und Umgebungseigenschaften mit Streuungen behaftet sind. Diese Streuungen sorgen dafür, dass meist mehr als die Hälfte aller realisierten Exemplare einer Nennwert-optimierten Lösung außerhalb der Spezifikation arbeitet:
Probabilistische Optimierung soll unrealistische, idealisierte Optima vermeiden, indem zumindest ein Teil der Bewertungsgrößen für die Güte-Berechnung die immer vorhandenen Streuungen repräsentiert:
- Streuungen von Outputgrößen (Bewertungsgrößen) können nur durch die Einbeziehung der Streuungen von Inputgrößen ermittelt werden, d.h., durch probabilistische Simulation.
- Optimale Lösungen beziehen sich somit nicht auf ein einzelnes "ideales" Exemplar, sondern auf die Gesamtheit aller realisierbaren Exemplare.
- Die "besten" Exemplare innerhalb dieser optimierten Lösungsgesamtheit entsprechen dann ungefähr der Lösung aus der Nennwert-Optimierung, die "schlechtesten" Exemplare erfüllen aber auch noch alle Forderungen der Anforderungsliste:
Hinweis: Die Art des benutzten Optimierungsverfahrens ist nicht relevant für die Bezeichnung "probabilistische Optimierung". Es zählt nur die Art der Güte-Berechnung basierend auf der Streuung aller möglichen Exemplare.
Zielstellung
Es existieren im Prinzip zwei grundlegende Ziele für die probabilistische Optimierung:
- Alle produzierten Exemplare sollen im Rahmen ihrer Spezifikation möglichst gut funktionieren.
- Die Kosten für die Realisierung des ersten Zieles sollten möglichst gering sein.
In welchem Maße man diese beiden Ziele verfolgen kann, ist abhängig von:
- der Komplexität des Problems,
- der Qualität der verfügbaren Modell und
- der Verfügbarkeit sowie Qualität der Daten für die Modell-Parameter
Modellaufbereitung
Unabhängig davon, in welchem Maße man obige Ziele verfolgt, stößt man an die Grenzen der aktuell verfügbaren Rechentechnik. Um in akzeptabler Zeit eine probabilistische Optimierung durchführen zu können, muss zuvor auf Basis einer probabilistischen Analyse eine Vereinfachung des probabilistischen Modells erfolgen. Dazu hat sich die folgende heuristische Vorgehensweise bewährt:
- Finden einer optimalen Ausgangslösung:
- Vereinfachungen eines nichtlinearen Modells (z.B. Linearisierung, Parameter-Reduktion) sind nur gültig für einen relativ kleinen Bereich um einen Arbeitspunkt.
- Es wird deshalb zuerst von der Annahme ausgegangen, dass die optimale Lösung der probabilistischen Optimierung in der Nähe des Nennwert-Optimums liegt.
- Bevor man sich Gedanken zur probabilistischen Optimierung macht, sollte man also zuerst ein möglichst gutes Nennwert-Optimum ohne Berücksichtigung von Streuungen gefunden haben.
- Reduktion auf wesentliche Input-Streuungen:
- Jede berücksichtigte Streuung erfordert Modellberechnungen. Die Anzahl der erforderlichen Modellberechnungen kann in Abhängigkeit von den benutzten Ersatzmodellen auch exponentiell steigen.
- Praxisrelevante Modelle können hunderte Modellparameter besitzen. Eine erste Reduktion auf eine in der probabilistischen Analyse zeitlich beherrschbare Menge streuender Parameter sollte dann auf der Basis von Vorüberlegungen erfolgen.
- Die Reduktion der Streuungsanzahl anhand der Sensitivitäten ist für nichtlineare Modelle nur validiert im Streubereich um den Arbeitspunkt der probabilistischen Analyse, d.h., um das Nennwert-Optimum.
- Damit man mit Hilfe einer Sensitivitätsanalyse die nicht relevanten Streuungen identifizieren kann, sind realistische Annahmen zu den Streubereichen erforderlich (Toleranzen und Verteilungen).
- RSM-Minimalmodell:
- Die statistische Auswertung einer Stichprobe erfolgt bei der probabilistischen Simulation mittels Response Surface Method (RSM).
- Die dafür erforderlichen Ersatzmodelle sollten nur so komplex sein, dass Sie die Übertragungsfunktion innerhalb des betrachteten Streubereiches der Input-Größen hinreichend genau abbilden:
- Wahl einer möglichst geringen Polynom-Ordnung.
- Verzicht auf die Abbildung von Interaktionen zwischen den Input-Größen (z.B. bei den Taylorreihen der Moment-Methode).
- Überflüssige Komplexität der Ersatz-Modelle erfordert zusätzliche Modellberechnungen als Stützstellen und führt eventuell zu Welligkeiten zwischen den Stützstellen.
Aspekte
Ausschuss-Minimierung
Für jede mittels statistischer Versuchsplanung simulierte Stichprobe liegt eine Information zur Gesamtversagenswahrscheinlichkeit vor, welche praktisch die Ausschuss-Quote repräsentiert.
Die Zielstellung der Ausschuss-Minimierung besteht darin:
- unter Berücksichtigung der vorhandenen Input-Streuungen
- Nennwerte einer optimalen Lösung zu finden,
- sodass die Gesamtversagenswahrscheinlichkeit der Lösung möglichst Null wird (= Erfüllung aller Forderungen).
- Falls die Ausschussquote Null erreicht werden kann, wird zusätzlich versucht, die Wünsche für den Nennwert möglichst gut zu erfüllen.
Ausschuss-Minimierung entspricht also einer Nennwert-Optimierung unter Berücksichtigung der Streuungen bei der Überprüfung der Restriktionsverletzungen. Man spricht auch von "zuverlässigkeitsbasierter Optimierung", denn Zielfunktion ist die Minimierung der Versagenswahrscheinlichkeit (Ausschussquote) einer berechneten Verteilung von Produkteigenschaften.
Robustheit
Unter Robustheit versteht man die Fähigkeit eines Systems, seine Funktion auch bei Schwankung der Betriebsbedingungen aufrecht zu erhalten:
- Berücksichtigt man bei der Optimierung nur den Aspekt der Ausschuss-Minimierung, so erreicht man bereits eine "hinreichende" Robustheit der Lösung. Im Bereich der berücksichtigten Streuungen der Betriebsbedingungen erfüllen alle Exemplare der Lösung die gestellten Forderungen an die Funktion.
- Möchte man die Robustheit über dieses hinreichende Maß erhöhen, so muss man ein quantifiziertes Maß für die Robustheit bei der Optimierung berücksichtigen. Dieses Maß findet man in der Varianz der Verhaltensstreuung.
- Die sogenannte "varianzbasierte Optimierung" führt zu einer Maximierung der Robustheit eines Systems. Bestandteil der Zielfunktion ist dabei die Minimierung der Varianzen der für das Verhalten relevanten Streuungen der Bewertungsgrößen.
- Verringert sich bei gleichbleibenden Input-Streuungen die Varianz der Funktionsstreuung bzw. sind höher Input-Streuungen bei gleicher Funktionsstreuung zulässig, so entspricht dies einer Lösung mit einer höheren Robustheit.
- Die robustere, stabilere Lösung weist eine geringere Sensitivität in Bezug auf die Streuungen der Betriebsbedingungen auf:
Hinweis: Die varianzbasierte Optimierung zur Erhöhung der Robustheit im engeren Sinne ist nur ein Aspekt im Rahmen der sogenannten Robust-Design-Optimierung, welche besser unter dem Begriff "Design For Six Sigma" bekannt ist.