Slow Feature Analysis: Unsupervised Learning of Invariances

Artikeleigenschaften
  • Sprache
    English
  • Veröffentlichungsdatum
    2002/04/01
  • Zeitschrift
  • Indian UGC (Zeitschrift)
  • Auffrischen
    21
  • Zitate
    561
  • Laurenz Wiskott Computational Neurobiology Laboratory, Salk Institute for Biological Studies, San Diego, CA 92168, U.S.A.; Institute for Advanced Studies, D-14193, Berlin, Germany; and Innovationskolleg Theoretische Biologie, Institute for Biology, Humboldt-University Berlin, D-10115 Berlin, Germany,
  • Terrence J. Sejnowski Howard Hughes Medical Institute, The Salk Institute for Biological Studies, La Jolla, CA 92037, U.S.A., and Department of Biology, University of California at San Diego, La Jolla, CA 92037, U.S.A.
Abstrakt
Zitieren
Wiskott, Laurenz, and Terrence J. Sejnowski. “Slow Feature Analysis: Unsupervised Learning of Invariances”. Neural Computation, vol. 14, no. 4, 2002, pp. 715-70, https://doi.org/10.1162/089976602317318938.
Wiskott, L., & Sejnowski, T. J. (2002). Slow Feature Analysis: Unsupervised Learning of Invariances. Neural Computation, 14(4), 715-770. https://doi.org/10.1162/089976602317318938
Wiskott L, Sejnowski TJ. Slow Feature Analysis: Unsupervised Learning of Invariances. Neural Computation. 2002;14(4):715-70.
Journalkategorien
Medicine
Internal medicine
Neurosciences
Biological psychiatry
Neuropsychiatry
Science
Mathematics
Instruments and machines
Electronic computers
Computer science
Technology
Electrical engineering
Electronics
Nuclear engineering
Electronics
Technology
Mechanical engineering and machinery
Beschreibung

Benötigen Sie eine bessere Möglichkeit, invariante Merkmale aus Daten zu extrahieren? Diese Forschung stellt die Slow Feature Analysis (SFA) vor, eine neue Methode des unüberwachten Lernens zum Erlernen invarianter oder langsam variierender Merkmale aus vektoriellen Eingangssignalen. Sie basiert auf der nichtlinearen Erweiterung des Eingangssignals und der Anwendung der Hauptkomponentenanalyse auf dieses erweiterte Signal und seine zeitliche Ableitung. Die SFA findet garantiert die optimale Lösung innerhalb einer Funktionsfamilie und kann zahlreiche dekorrelierte Merkmale extrahieren, die nach Invarianzgrad geordnet sind. Sie verarbeitet hochdimensionale Signale hierarchisch und extrahiert komplexe Merkmale. SFA wird auf komplexe Eigenschaften der Zellabstimmung (Disparität, Bewegung) angewendet, und kompliziertere Eingabe-Ausgabe-Funktionen werden durch wiederholte Anwendung erlernt. Die Ergebnisse zeigen, dass ein hierarchisches Netzwerk von SFA-Modulen Übersetzungs-, Größen-, Rotations- und Kontrastinvarianz für eindimensionale Objekte lernen kann, abhängig vom Trainingsstimulus. Für eine gute Verallgemeinerung reichen nur wenige Trainingsobjekte aus. Die Leistung verschlechtert sich, wenn das Netzwerk mehrere Invarianzen gleichzeitig lernt. Die erzeugte Darstellung eignet sich für die Objekterkennung und eröffnet Türen für das maschinelle Lernen.

Dieser in Neural Computation veröffentlichte Artikel passt in den Fokus der Zeitschrift auf neuronale Netze, maschinelles Lernen und Computerneurowissenschaften. Er stellt einen neuartigen Algorithmus zur Merkmalsextraktion vor, der mit dem Schwerpunkt der Zeitschrift auf computergestützten Methoden zum Verständnis der neuronalen Verarbeitung und Mustererkennung übereinstimmt.

Auffrischen
Zitate
Zitationsanalyse
Die erste Studie, die diesen Artikel zitiert hat, trug den Titel Multi-modal estimation of collinearity and parallelism in natural image sequences und wurde in 2002. veröffentlicht. Die aktuellste Zitierung stammt aus einer 2024 Studie mit dem Titel Multi-modal estimation of collinearity and parallelism in natural image sequences Seinen Höhepunkt an Zitierungen erreichte dieser Artikel in 2022 mit 71 Zitierungen.Es wurde in 215 verschiedenen Zeitschriften zitiert., 17% davon sind Open Access. Unter den verwandten Fachzeitschriften wurde diese Forschung am häufigsten von Neural Computation zitiert, mit 35 Zitierungen. Die folgende Grafik veranschaulicht die jährlichen Zitationstrends für diesen Artikel.
Zitate verwendeten diesen Artikel für Jahr