Algorithmic Stability and Sanity-Check Bounds for Leave-One-Out Cross-Validation

Artikeleigenschaften
  • Sprache
    English
  • Veröffentlichungsdatum
    1999/08/01
  • Zeitschrift
  • Indian UGC (Zeitschrift)
  • Auffrischen
    8
  • Zitate
    212
  • Michael Kearns AT&T Labs Research, Florham Park, NJ 07932, U.S.A.
  • Dana Ron Department of EE—Systems, Tel Aviv University, 69978 Ramat Aviv, Israel
Abstrakt
Zitieren
Kearns, Michael, and Dana Ron. “Algorithmic Stability and Sanity-Check Bounds for Leave-One-Out Cross-Validation”. Neural Computation, vol. 11, no. 6, 1999, pp. 1427-53, https://doi.org/10.1162/089976699300016304.
Kearns, M., & Ron, D. (1999). Algorithmic Stability and Sanity-Check Bounds for Leave-One-Out Cross-Validation. Neural Computation, 11(6), 1427-1453. https://doi.org/10.1162/089976699300016304
Kearns M, Ron D. Algorithmic Stability and Sanity-Check Bounds for Leave-One-Out Cross-Validation. Neural Computation. 1999;11(6):1427-53.
Journalkategorien
Medicine
Internal medicine
Neurosciences
Biological psychiatry
Neuropsychiatry
Science
Mathematics
Instruments and machines
Electronic computers
Computer science
Technology
Electrical engineering
Electronics
Nuclear engineering
Electronics
Technology
Mechanical engineering and machinery
Beschreibung

Sicherstellung der Zuverlässigkeit von Algorithmen für maschinelles Lernen. In diesem Artikel werden Sanity-Check-Schranken für den Fehler der Leave-One-Out-Kreuzvalidierung vorgestellt. Diese Kreuzvalidierungsmethode liefert eine Schätzung des Generalisierungsfehlers, einer wichtigen Metrik der Algorithmusleistung. Es wird gezeigt, dass der Worst-Case-Fehler der Leave-One-Out-Schätzung nicht wesentlich schlechter ist als die Schätzung des Trainingsfehlers. Durch die Einführung eines neuen Begriffs der Fehlerstabilität erweitern die Autoren die Anwendbarkeit von Sanity-Check-Schranken auf ein breiteres Spektrum von Lernalgorithmen. Die Forschung unterstreicht auch die Notwendigkeit der Fehlerstabilität zum Beweisen von Schranken und die Abhängigkeit dieser Schranken von der Vapnik-Chervonenkis-Dimension der Hypothesenklasse. Diese Forschung hat eine Schlüsselfunktion für die *Mathematik*.

Dieser in Neural Computation veröffentlichte Artikel steht im Einklang mit dem Schwerpunkt der Zeitschrift auf theoretischen Aspekten neuronaler Netze und maschinellen Lernens. Durch die Festlegung von Sanity-Check-Schranken für die Leave-One-Out-Kreuzvalidierung adressiert der Artikel eine theoretische Herausforderung im Zusammenhang mit der Algorithmusbewertung. Der Fokus der Studie auf algorithmische Stabilität und Fehlerschranken trägt zum Kernthema der Zeitschrift bei, die mathematischen Grundlagen der neuronalen Berechnung voranzubringen.

Auffrischen
Zitate
Zitationsanalyse
Die erste Studie, die diesen Artikel zitiert hat, trug den Titel 10.1162/153244302760200704 und wurde in 2000. veröffentlicht. Die aktuellste Zitierung stammt aus einer 2024 Studie mit dem Titel 10.1162/153244302760200704 Seinen Höhepunkt an Zitierungen erreichte dieser Artikel in 2021 mit 23 Zitierungen.Es wurde in 172 verschiedenen Zeitschriften zitiert., 17% davon sind Open Access. Unter den verwandten Fachzeitschriften wurde diese Forschung am häufigsten von Remote Sensing zitiert, mit 7 Zitierungen. Die folgende Grafik veranschaulicht die jährlichen Zitationstrends für diesen Artikel.
Zitate verwendeten diesen Artikel für Jahr