In diesem Themenbereich werden wir das grundlegende mathematische Verständnis künstlicher neuronaler Netze voranbringen, etwa durch das Design und die rigorose Analyse von Verfahren des stochastischen Gradientenabstiegs für deren Training. Durch die Verbindung datengetriebener Ansätze maschinellen Lernens mit Modellreduktionsverfahren entwickeln wir vollständig verifizierte Multi-Fidelity-Modellierungsansätze für parametrisierte PDEs, entwerfen und untersuchen Deep-Learning-basierte Approximationsverfahren für parametrische SPDEs und konstruieren kostenoptimale Multi-Fidelity-Surrogat-Methoden für Optimierung mit PDE-Nebenbedingungen und Inverse Probleme.
| Böhm, Christoph | |
| Dereich, Steffen | |
| Engwer, Christian | |
| Jentzen, Arnulf | |
| Kuckuck, Benno | |
| Ohlberger, Mario | |
| Rave, Stephan | |
| Weber, Hendrik | |
| Wirth, Benedikt |
| Böhm, Christoph | |
| Dereich, Steffen | |
| Engwer, Christian | |
| Jentzen, Arnulf | |
| Kuckuck, Benno | |
| Ohlberger, Mario | |
| Rave, Stephan | |
| Weber, Hendrik | |
| Wirth, Benedikt |
Laufzeit: 01.01.2026 - 31.12.2032 | 2. Förderperiode Gefördert durch: DFG - Exzellenzcluster Art des Projekts: DFG-Hauptprojekt koordiniert an der Universität Münster |
