Das zentrale Ziel dieses Projektes ist es eine rigorose mathematische Analyse fuer tief lernende Algorithmen zu entwickeln und damit mathematische Aussagen zu beweisen, welche sowohl den Erfolg als auch die Limitierungen von tief lernenden Algorithmen erklaeren. Insbesondere beabsichtigen wir in diesem Projekt (i) eine mathematische Theorie zu hochdimensionalen approximationseigenschaften von tiefen neuronalen Netzwerken zu entwickeln, (ii) geeignete glatte Funktionenfolgen, welche ohne den Fluch der Dimension von tiefen jedoch nicht von flachen neuronalen Netzwerken approximiert werden koennen, anzugeben und (iii) dimensionsunabhaengige Konvergenzraten fuer stochastische Gradientenverfahren mit hoechstens polynomiell in der Dimension wachsenden Fehlerkonstanten zu beweisen.
Jentzen, Arnulf | Institut für Analysis und Numerik |
Kuckuck, Benno | Mathematisches Institut |