Learning to Forget: Continual Prediction with LSTM

Artikeleigenschaften
  • Sprache
    English
  • Veröffentlichungsdatum
    2000/10/01
  • Zeitschrift
  • Indian UGC (Zeitschrift)
  • Auffrischen
    14
  • Zitate
    2,066
  • Felix A. Gers IDSIA, 6900 Lugano, Switzerland
  • Jürgen Schmidhuber IDSIA, 6900 Lugano, Switzerland
  • Fred Cummins IDSIA, 6900 Lugano, Switzerland
Abstrakt
Zitieren
Gers, Felix A., et al. “Learning to Forget: Continual Prediction With LSTM”. Neural Computation, vol. 12, no. 10, 2000, pp. 2451-7, https://doi.org/10.1162/089976600300015015.
Gers, F. A., Schmidhuber, J., & Cummins, F. (2000). Learning to Forget: Continual Prediction with LSTM. Neural Computation, 12(10), 2451-2471. https://doi.org/10.1162/089976600300015015
Gers FA, Schmidhuber J, Cummins F. Learning to Forget: Continual Prediction with LSTM. Neural Computation. 2000;12(10):2451-7.
Journalkategorien
Medicine
Internal medicine
Neurosciences
Biological psychiatry
Neuropsychiatry
Science
Mathematics
Instruments and machines
Electronic computers
Computer science
Technology
Electrical engineering
Electronics
Nuclear engineering
Electronics
Technology
Mechanical engineering and machinery
Beschreibung

Wie können Long Short-Term Memory (LSTM)-Netzwerke Einschränkungen bei der Verarbeitung kontinuierlicher Eingabeströme überwinden? Dieser Artikel befasst sich mit der Herausforderung von LSTM-Netzwerken, die ohne explizite Rücksetzungen ein Zustandswachstum erfahren können, das zum Scheitern des Netzwerks führt. Die Lösung ist ein neuartiges, adaptives 'Vergiss-Gate', das es LSTM-Zellen ermöglicht zu lernen, wann sie zurückgesetzt werden müssen, wodurch interne Ressourcen freigesetzt werden. Die Forschung befasst sich erneut mit Benchmark-Problemen, bei denen Standard-LSTM andere Algorithmen für rekurrenten neuronalen Netzwerken übertrifft. Diese Algorithmen, einschließlich LSTM, haben jedoch Probleme mit kontinuierlichen Versionen dieser Probleme. Durch die Implementierung von Vergiss-Gates kann LSTM diese Herausforderungen auf elegante Weise effektiv lösen. Diese Innovation verbessert die Fähigkeit von LSTM-Netzwerken, lange, ununterbrochene Sequenzen zu verwalten, und verbessert ihre Anwendbarkeit in realen Szenarien, die kontinuierliches Lernen erfordern. Das Konzept bietet einen Weg nach vorne für kontinuierliches Lernen in neuronalen Netzen.

Diese in Neural Computation veröffentlichte Forschung passt in den Fokus der Zeitschrift auf neuronale Netze und Lernalgorithmen. Die Entwicklung eines neuartigen Vergiss-Gates für LSTM-Netzwerke trägt zu den laufenden Fortschritten bei rekurrenten neuronalen Netzen bei und steht im Einklang mit dem Themenspektrum der Zeitschrift.

Auffrischen
Zitate
Zitationsanalyse
Die erste Studie, die diesen Artikel zitiert hat, trug den Titel 10.1162/153244303768966139 und wurde in 2000. veröffentlicht. Die aktuellste Zitierung stammt aus einer 2024 Studie mit dem Titel 10.1162/153244303768966139 Seinen Höhepunkt an Zitierungen erreichte dieser Artikel in 2023 mit 442 Zitierungen.Es wurde in 866 verschiedenen Zeitschriften zitiert., 22% davon sind Open Access. Unter den verwandten Fachzeitschriften wurde diese Forschung am häufigsten von IEEE Access zitiert, mit 97 Zitierungen. Die folgende Grafik veranschaulicht die jährlichen Zitationstrends für diesen Artikel.
Zitate verwendeten diesen Artikel für Jahr