Projektverantwortliche:
Carla Henning
Projektpartner:
Professor Dr. Katja Ickstadt, Dr. Swetlana Herbrandt
TU Dortmund, Fakultät Statistik, Lehrstuhl für mathematische Statistik und biometrische Anwendungen
DFG SPP 1886: Teilprojekt 12
Förderphase 1: 01.01.2017 - 31.12.2019
Das grundlegende Ziel war und ist die Charakterisierung und Analyse des Einflusses von polymorph unscharfer Daten auf die deterministische Modellierung des multi-physikalischen Verhaltens gesättigten Bodens. Hierfür haben wir als Benchmark ein Konsolidierungs-Anfangswertproblem gewählt, um sowohl bestehende als auch selbst entwickelte Methoden daran zu testen und vergleichen zu können.
Ein zwei Phasen Modell (Festkörper und Fluid, beides materiell inkompressibel und linear elastisch) wurde im Rahmen der Theorie poröser Medien aufbereitet, sodass die sonst klassisch deterministische FEM Berechnungen automatisiert mit probabilistischen und stochastischen Ansätzen berechnet werden können (in FEAP). Darüber hinaus haben wir ein benutzerfreundliches Werkzeug (in R) für die Erzeugung von Zufallsfeldern mit unterschiedlichen Eigenschaften entwickelt. Das Werkzeug ermöglicht die Modellierung aleatorischer Unschärfen wie Bodeneigenschaften für mehrere Bodenschichten sowie epistemische Unschärfen wie die Anzahl der Schichten, ihre Positionen und Geometrien.
Für die praktische Umsetzung zwischen R und FEAP wurde ein Shell-Skript erstellt, das die automatisierte Organisation und Verarbeitung der einzelnen Serien von Zufallsfeldern steuert und die Ausgaben des TPM Models in einem geeigneten und sortierten Format für die folgenden Analysen zur Verfügung stellt. Mithilfe des Monte-Carlo-Ansatzes haben wir die Entwicklung des Fluidporendrucks über die Zeit sowie die Setzungen aufgrund variierender Oberflächenbelastungen und Eigengewicht analysiert. Darüber hinaus wurde die kombinierte Auswirkung einer Variation der Korrelationslängen und der natürlichen Variabilität der Eigenschaften durch einen fuzzy-probabilistischen Ansatz untersucht.
Neben diesen globalen Unschärfequantifizierungsansätzen lag ein weiterer Schwerpunkt auf der Entwicklung der variationellen Sensitivitätsanalyse für das zugrundeliegende physikalische Modell (TPM), die den lokalen Unschärfequantifizierungsmethoden zugeordnet werden kann. Die theoretische Herleitung der Modellgleichungen sowie die Implementierung in FEAP führten zu einem effizienten Algorithmus, der mit nur einer deterministischen Berechnung weitreichende Informationen über die Sensitivität des betrachteten Problems liefert. Für die geeignete Auswertung und Beurteilung wurden unterschiedliche Sensitivitätsmaße entwickelt, die Aufschluss über den Einfluss einzelner Parameter (globale Einflussanalyse) aber auch die räumliche Verteilung eines Parameters geben (lokale Einflussanalyse).
Die Vor- und Nachteile der unterschiedlichen Methoden wurden anhand umfassender Berechnungen und Auswertungen ausgearbeitet. Parallel wurde die DEIM Methode für die TPM aufbereitet, um den Rechenaufwand für Analysen zu reduzieren, die eine hohe Anzahl an Modelldurchläufen erfordern.
Förderphase 2: 01.01.2020 - 31.12.2022
Aufbauend auf die erste Projektphase soll auch in der zweiten Projektphase die Charakterisierung und Analyse des Einflusses polymorph unscharfer Daten auf die deterministische Modellierung des multi-physikalischen Verhaltens gesättigten Bodens untersucht werden. Wie zuvor wird das physikalische Verhalten auf Basis der Theorie poröser Medien (TPM) abgebildet. In der ersten Projektphase ist es gelungen, die aus der variationellen Sensitivitätsanalyse (VSA) gewonnenen Informationen zur Effizienzsteigerung probabilistischer Methoden zu verwenden. Hierzu wurde die VSA zum einen als Methode zur Erhöhung des Vorwissens und zur Reduzierung des Eingabeparameterraums einer nachfolgenden Monte-Carlo-Analyse genutzt, zum anderen diente sie als auch als zusätzliche tangentiale Information zur Unterstützung von Bayes'schen Modellen und der daraus abgeleiteten Bayes'schen Sensitivitätsanalyse.
Darüber hinaus können probabilistische Analysen idealerweise durch die Fuzzy-Arithmetik ergänzt werden, um Expertenwissen über Parameter in Form von unscharfen Mengen ebenfalls zu berücksichtigen.
Folglich ist in der zweiten Förderphase geplant, den variationellen und den Bayes'schen Sensitivitätsansatz zu kombinieren. Hierdurch erwarten wir eine sowohl effizientere als auch präzisere Unschärfenquantifzierung. Bei der variationell/analytischen (variolytischen) vordefinierten probabilistischen Sensitivitätsanalyse werden die tangentialen Informationen der variationellen Sensitivitätsanalyse in den Bayes'schen Sensitivitätsansatz einbezogen, um das zur Durchführung der globalen Sensitivitätsindizes verwendete Modell zu verbessern. In einem zweiten Schritt wird die Fuzzy-Theorie in die variolytische vordefinierte probabilistische Sensitivitätsanalyse einbezogen, um die einzelnen Eingangsgrößen flexibler zu erfassen.
Für den nächsten Schritt in Richtung realer Problemstellungen wird die Formulierung des TPM-Modells erweitert. Motiviert durch Probleme wie hydraulisches Bodenversagen und tektonische Störungen sollen Erosionsvorgänge, Plastizität und nicht-lineare Verzerrungen berücksichtigt werden.
Durch die Modellerweiterung nimmt der Rechenaufwand zu, sodass weitere Schritte in Richtung Modellreduktion erarbeitet und untersucht werden müssen. Um die Anzahl der TPM-Auswertungen zu reduzieren, wird der Kriging Ansatz als Metamodell für die Beschreibung der TPM Feldgrößen in Abhängigkeit von verschiedenen Anfangswerteinstellungen verwendet. Dieses Metamodell hat den Vorteil einer wesentlich schnelleren Auswertung mit akzeptabler Genauigkeit. Hierdurch wir die Unschärfenquantifizierung für unbekannte Parameterbereiche auch für komplexere und nichtlineare Modelle ermöglicht. Des Weiteren soll das POD-DEIM Verfahren als Modellreduktionsmethode zur Beschleunigung der Berechnungen angewendet und erweitert werden.
Abschließend soll das Berechnungsprogramm in der Lage sein, dem Ingenieur DIN-konforme Entscheidungshilfen zu generieren. Eine geeignete Benutzerschnittstelle, ausreichende Flexibilität des Programms, Effizienz und Entscheidungsfindung sowie interpretierbare Ergebnisse sind dafür unerlässlich. Um die Entscheidung zu erleichtern, werden wir Wahrscheinlichkeiten von Worst-Case-Szenarien bereitstellen, die aus der a posteriori-Verteilung der Zielgröße abgeleitet werden können. Zusätzlich werden wir die modellbasierte Optimierung (MBO) für die Erkennung von Parameterkombinationen (Szenarien) verwenden, die zu ungünstigen Zielgrößen führen. Die Analyse dieser Parameterkombinationen kann beispielsweise helfen, Positionen für weitere Bodenprobenentnahmestellen zu empfehlen. Es soll für den Anwender ohne großen Aufwand möglich sein, beliebige Probleme an das Programm zu übergeben. Es werden repräsentative Benchmark-Beispiele verwendet, um die Architektur des Programms zu evaluieren und, falls erforderlich, den Workflow und die Algorithmen zu optimieren.
Carla Henning
M.Sc.Wissenschaftliche Mitarbeiterin
[Foto: Max Kovalenko]