Navigation überspringen
Universitätsbibliothek Heidelberg
Status: Bibliographieeintrag

Verfügbarkeit
Standort: ---
Exemplare: ---
heiBIB
 Online-Ressource
Verfasst von:Meyer, Joseph Theo [VerfasserIn]   i
Titel:Optimal convergence rates of deep neural networks in a classification setting
Verf.angabe:Joseph T. Meyer
E-Jahr:2023
Jahr:7 December 2023
Umfang:47 S.
Fussnoten:Gesehen am 15.04.2024
Titel Quelle:Enthalten in: Electronic journal of statistics
Ort Quelle:Ithaca, NY : Cornell University Library, 2007
Jahr Quelle:2023
Band/Heft Quelle:17(2023), 2, Seite 3613-3659
ISSN Quelle:1935-7524
Abstract:We establish optimal convergence rates up to a log factor for a class of deep neural networks in a classification setting under a restraint sometimes referred to as the Tsybakov noise condition. We construct classifiers based on empirical risk minimization in a general setting where the boundary of the Bayes rule can be approximated well by neural networks. Corresponding rates of convergence are proven with respect to the misclassification error using an additional condition that acts as a requirement for the “correct noise exponent”. It is then shown that these rates are optimal in the minimax sense. For other estimation procedures, similar convergence rates have been established. Our first main contribution is to prove that the rates are optimal under the additional condition. Secondly, our main theorem establishes almost optimal rates in a generalized setting. We use this to show optimal rates which circumvent the curse of dimensionality.
DOI:doi:10.1214/23-EJS2187
URL:Bitte beachten Sie: Dies ist ein Bibliographieeintrag. Ein Volltextzugriff für Mitglieder der Universität besteht hier nur, falls für die entsprechende Zeitschrift/den entsprechenden Sammelband ein Abonnement besteht oder es sich um einen OpenAccess-Titel handelt.

kostenfrei: Volltext: https://doi.org/10.1214/23-EJS2187
 kostenfrei: Volltext: https://projecteuclid.org/journals/electronic-journal-of-statistics/volume-17/issue-2/Optimal-convergence-rates-of-deep- ...
 DOI: https://doi.org/10.1214/23-EJS2187
Datenträger:Online-Ressource
Sprache:eng
Sach-SW:62C20
 62G05
 classification
 Deep neural networks
 Tsybakov noise condition
K10plus-PPN:1885863268
Verknüpfungen:→ Zeitschrift

Permanenter Link auf diesen Titel (bookmarkfähig):  https://katalog.ub.uni-heidelberg.de/titel/69204426   QR-Code
zum Seitenanfang