Mathematische Theorie zu Tiefem Lernen (DLMATH)

Grunddaten zu diesem Projekt

Art des ProjektesEigenmittelprojekt
Laufzeit an der Universität Münster01.09.2019 - 31.08.2024

Beschreibung

Das zentrale Ziel dieses Projektes ist es eine rigorose mathematische Analyse fuer tief lernende Algorithmen zu entwickeln und damit mathematische Aussagen zu beweisen, welche sowohl den Erfolg als auch die Limitierungen von tief lernenden Algorithmen erklaeren. Insbesondere beabsichtigen wir in diesem Projekt (i) eine mathematische Theorie zu hochdimensionalen approximationseigenschaften von tiefen neuronalen Netzwerken zu entwickeln, (ii) geeignete glatte Funktionenfolgen, welche ohne den Fluch der Dimension von tiefen jedoch nicht von flachen neuronalen Netzwerken approximiert werden koennen, anzugeben und (iii) dimensionsunabhaengige Konvergenzraten fuer stochastische Gradientenverfahren mit hoechstens polynomiell in der Dimension wachsenden Fehlerkonstanten zu beweisen.

Stichwörtertiefes lernen; maschinelles lernen; tiefe neuronale netzwerke; kuenstliche neuronale netzwerke; stochastisches Gradientenverfahren; stochastische Optimierung; empirische Risikominimierung; Verallgemeinerungsfehler; Approximationsfehler; Optimierungsfehler

Projektleitung der Universität Münster

Jentzen, Arnulf
Institut für Analysis und Numerik

Wissenschaftliche Projektmitarbeiter*innen der Universität Münster

Kuckuck, Benno
Mathematisches Institut

Projektbeteiligte Organisationen außerhalb der Universität Münster

  • Eidgenössische Technische Hochschule Zürich (ETH)Schweiz