Sicherstellung der Zuverlässigkeit von Algorithmen für maschinelles Lernen. In diesem Artikel werden Sanity-Check-Schranken für den Fehler der Leave-One-Out-Kreuzvalidierung vorgestellt. Diese Kreuzvalidierungsmethode liefert eine Schätzung des Generalisierungsfehlers, einer wichtigen Metrik der Algorithmusleistung. Es wird gezeigt, dass der Worst-Case-Fehler der Leave-One-Out-Schätzung nicht wesentlich schlechter ist als die Schätzung des Trainingsfehlers. Durch die Einführung eines neuen Begriffs der Fehlerstabilität erweitern die Autoren die Anwendbarkeit von Sanity-Check-Schranken auf ein breiteres Spektrum von Lernalgorithmen. Die Forschung unterstreicht auch die Notwendigkeit der Fehlerstabilität zum Beweisen von Schranken und die Abhängigkeit dieser Schranken von der Vapnik-Chervonenkis-Dimension der Hypothesenklasse. Diese Forschung hat eine Schlüsselfunktion für die *Mathematik*.
Dieser in Neural Computation veröffentlichte Artikel steht im Einklang mit dem Schwerpunkt der Zeitschrift auf theoretischen Aspekten neuronaler Netze und maschinellen Lernens. Durch die Festlegung von Sanity-Check-Schranken für die Leave-One-Out-Kreuzvalidierung adressiert der Artikel eine theoretische Herausforderung im Zusammenhang mit der Algorithmusbewertung. Der Fokus der Studie auf algorithmische Stabilität und Fehlerschranken trägt zum Kernthema der Zeitschrift bei, die mathematischen Grundlagen der neuronalen Berechnung voranzubringen.