Recurrence Methods in the Analysis of Learning Processes

Artikeleigenschaften
  • Sprache
    English
  • Veröffentlichungsdatum
    2001/08/01
  • Zeitschrift
  • Indian UGC (Zeitschrift)
  • Auffrischen
    3
  • S. Mendelson Department of Mathematics, Technion, and Institute of Computer Science, Hebrew University, Jerusalem 91120, Israel
  • I. Nelken Department of Physiology, Hebrew University-Hadassah Medical School, and the Interdisciplinary Center for Neural Computation, Hebrew University, Jerusalem 91120, Israel
Abstrakt
Zitieren
Mendelson, S., and I. Nelken. “Recurrence Methods in the Analysis of Learning Processes”. Neural Computation, vol. 13, no. 8, 2001, pp. 1839-61, https://doi.org/10.1162/08997660152469378.
Mendelson, S., & Nelken, I. (2001). Recurrence Methods in the Analysis of Learning Processes. Neural Computation, 13(8), 1839-1861. https://doi.org/10.1162/08997660152469378
Mendelson S, Nelken I. Recurrence Methods in the Analysis of Learning Processes. Neural Computation. 2001;13(8):1839-61.
Journalkategorien
Medicine
Internal medicine
Neurosciences
Biological psychiatry
Neuropsychiatry
Science
Mathematics
Instruments and machines
Electronic computers
Computer science
Technology
Electrical engineering
Electronics
Nuclear engineering
Electronics
Technology
Mechanical engineering and machinery
Beschreibung

Wie können wir sicherstellen, dass eine Maschine während des Lernens konsistent korrekte Zustände erreicht? Dieses Papier stellt eine Bedingung vor, die sicherstellt, dass ein Lernprozess die Zielmenge mit nahezu Sicherheit unendlich oft besucht. Diese leicht zu überprüfende Bedingung gilt für zahlreiche bekannte Lernregeln, die das Perzeptron, kontinuierliche Energiefunktionen, die Kohonen-Regel und die Komitee-Maschine umfassen. Wir stellen eine Bedingung vor, die sicherstellt, dass der Prozess die Zielmenge fast sicher unendlich oft besucht. Diese Bedingung ist leicht zu überprüfen und gilt für viele bekannte Lernregeln. Der Nutzen dieser Methode wird durch ihre Anwendung auf vier Arten von Lernprozessen demonstriert. Diese Methode hilft zu zeigen, dass der Prozess in diese Zielmenge eintritt. Um den Nutzen dieser Methode zu demonstrieren, wenden wir sie auf vier Arten von Lernprozessen an: das Perzeptron, Lernregeln, die durch kontinuierliche Energiefunktionen bestimmt werden, die Kohonen-Regel und die Komitee-Maschine.

Dieser Artikel wurde in Neural Computation veröffentlicht und steht im Einklang mit dem Fokus der Zeitschrift auf theoretischen und rechnerischen Aspekten neuronaler Netze und Lernsysteme. Durch die Bereitstellung einer überprüfbaren Bedingung, die sicherstellt, dass Lernprozesse korrekte Zustände erreichen, trägt diese Forschung zur laufenden Entwicklung robusterer Algorithmen für maschinelles Lernen bei.

Auffrischen