Grundlagen: Probabilistik - Optimierung
Hinweis: Dieses Kapitel wird zur Zeit erarbeitet!
Charakteristik
"Klassische" Nennwert-Optimierung bewertet die Güte einer Lösung nur auf Grundlage der "exakten Werte" von Bewertungsgrößen, welche aus den momentanen "exakten Werten" der Inputgrößen mit einem deterministischen Modell berechnet werden:
- Nennwert-otimierte Lösungen für technische Probleme liegen meist an den Restriktionsgrenzen, da die technisch-physikalischen Grenzen weitestgehend ausgenutzt werden.
- Man erhält damit nur idealisierte Lösungen, da in der realen Welt die Inputgrößen mit Streuungen behaftet sind. Diese Streuungen sorgen dafür, dass meist mehr als die Hälfte aller realisierten Exemplare einer Nennwert-optimierten Lösung außerhalb der Spezifikation arbeiten!
Probabilistische Optimierung soll unrealistische, idealisierte Optima vermeiden, indem zumindest ein Teil der Bewertungsgrößen für die Güte-Berechnung die immer vorhandenen Streuungen repräsentiert:
- Streuungen von Outputgrößen (Bewertungsgrößen) können nur durch die Einbeziehung der Streuungen von Inputgrößen ermittelt werden, d.h., durch probabilistische Simulation.
- Optimale Lösungen beziehen sich somit nicht auf ein einzelnes "ideales" Exemplar, sondern auf die Gesamtheit aller realisierbaren Exemplare.
- Die "besten" Exemplare innerhalb dieser Lösungsgesamtheit entsprechen im Wesentlichen der Lösung aus der Nennwert-Optimierung, die "schlechtesten" Exemplare erfüllen jedoch noch alle Forderungen der Anforderungsliste.
Hinweis: Die Art des benutzten Optimierungsverfahrens ist nicht relevant für die Bezeichnung "probabilistische Optimierung". Es zählt nur die Art der Güte-Berechnung basierend auf dem Einzel-Exemplar oder auf der Streuung aller Exemplare.
Zielstellung
Es existieren im Prinzip zwei grundlegende Ziele für die probabilistische Optimierung:
- Alle produzierten Exemplare sollen im Rahmen ihrer Spezifikation möglichst gut funktionieren.
- Die Kosten für die Realisierung des ersten Zieles sollten möglichst gering sein.
In welchem Maße man diese beiden Ziele verfolgen kann, ist abhängig von:
- der Komplexität des Problems,
- der Qualität der verfügbaren Modell und
- der Verfügbarkeit sowie Qualität der Daten für die Modell-Parameter
Modellaufbereitung
Unabhängig davon, in welchem Maße man obige Ziele verfolgt, stößt man an die Grenzen der aktuell verfügbaren Rechentechnik. Um in akzeptabler Zeit eine probabilistische Optimierung durchführen zu können, muss zuvor auf Basis einer probabilistischen Analyse eine Vereinfachung des probabilistischen Modells erfolgen. Dazu hat sich die folgende heuristische Vorgehensweise bewährt:
- Finden einer optimalen Ausgangslösung:
- Vereinfachungen eines nichtlinearen Modells (z.B. Linearisierung, Parameter-Reduktion) sind nur gültig für einen relativ kleinen Bereich um einen Arbeitspunkt.
- Es wird deshalb zuerst von der Annahme ausgegangen, dass die optimale Lösung der probabilistischen Optimierung in der Nähe des Nennwert-Optimums liegt.
- Bevor man sich Gedanken zur probabilistischen Optimierung macht, sollte man also zuerst ein möglichst gutes Nennwert-Optimum ohne Berücksichtigung von Streuungen gefunden haben.
- Reduktion auf wesentliche Input-Streuungen:
- Jede berücksichtigte Streuung erfordert Modellberechnungen. Die Anzahl der erforderlichen Modellberechnungen kann in Abhängigkeit von den benutzten Ersatzmodellen auch exponentiell steigen.
- Praxisrelevante Modelle können hunderte Modellparameter besitzen. Eine erste Reduktion auf eine in der probabilistischen Analyse zeitlich beherrschbare Menge streuender Parameter sollte dann der Basis von Vorüberlegungen erfolgen.
- Die Reduktion der Streuungsanzahl anhand der Sensitivitäten ist für nichtlineare Modelle nur validiert im Bereich des Arbeitspunktes der probabilistischen Analyse, d.h., um das Nennwert-Optimum.
- Damit man mit Hilfe einer Sensitivitätsanalyse die nicht relevante Streuungen identifizieren kann, sind realistische Annahmen zu den Streubereichen erforderlich (Toleranz und Verteilung).
- ...
- RSM-Minimalmodell:
- ...