Predictability, Complexity, and Learning

Artikeleigenschaften
  • Sprache
    English
  • Veröffentlichungsdatum
    2001/11/01
  • Zeitschrift
  • Indian UGC (Zeitschrift)
  • Auffrischen
    69
  • Zitate
    246
  • William Bialek NEC Research Institute, Princeton, NJ 08540, U.S.A.
  • Ilya Nemenman NEC Research Institute, Princeton, New Jersey 08540, U.S.A., and Department of Physics, Princeton University, Princeton, NJ 08544, U.S.A.
  • Naftali Tishby NEC Research Institute, Princeton, NJ 08540, U.S.A., and School of Computer Science and Engineering and Center for Neural Computation, Hebrew University, Jerusalem 91904, Israel
Abstrakt
Zitieren
Bialek, William, et al. “Predictability, Complexity, and Learning”. Neural Computation, vol. 13, no. 11, 2001, pp. 2409-63, https://doi.org/10.1162/089976601753195969.
Bialek, W., Nemenman, I., & Tishby, N. (2001). Predictability, Complexity, and Learning. Neural Computation, 13(11), 2409-2463. https://doi.org/10.1162/089976601753195969
Bialek W, Nemenman I, Tishby N. Predictability, Complexity, and Learning. Neural Computation. 2001;13(11):2409-63.
Journalkategorien
Medicine
Internal medicine
Neurosciences
Biological psychiatry
Neuropsychiatry
Science
Mathematics
Instruments and machines
Electronic computers
Computer science
Technology
Electrical engineering
Electronics
Nuclear engineering
Electronics
Technology
Mechanical engineering and machinery
Beschreibung

Können wir die Komplexität des Lernens quantifizieren? Dieser Artikel führt das Konzept der prädiktiven Information, Ipred(T), ein, die als die gegenseitige Information zwischen der Vergangenheit und der Zukunft einer Zeitreihe definiert ist, um die Komplexität des Lernens zu charakterisieren. Er zeigt drei unterschiedliche Verhaltensweisen im Grenzwert großer Beobachtungszeiten: endliches, logarithmisches oder fraktales Potenzgesetzwachstum von Ipred(T). Ziel ist es, Wege zu finden, um Komplexität zu messen. Die Studie zeigt, dass logarithmisches Wachstum auftritt, wenn ein Modell mit einer endlichen Anzahl von Parametern gelernt wird, wobei der Koeffizient die Dimensionalität des Modellraums darstellt. Potenzgesetzwachstum ist umgekehrt mit dem Lernen von Modellen mit unendlich vielen Parametern verbunden, wie z. B. stetigen Funktionen mit Glattheitsbeschränkungen. Die Forschung verbindet prädiktive Informationen mit Komplexitätsmaßen, die in der Lerntheorie und der statistischen Mechanik definiert sind. Dieser Rahmen könnte auf eine Vielzahl von Problemen in Physik, Statistik und Biologie angewendet werden und dazu beitragen, die Komplexität der zugrunde liegenden Dynamik in verschiedenen Systemen zu quantifizieren. Die Autoren argumentieren, dass der divergente Teil von Ipred(T) ein genaues Maß für die Komplexität einer Zeitreihe ist.

Dieser in Neural Computation veröffentlichte Artikel passt zum Themenspektrum der Zeitschrift, da er sich mit den rechnerischen Aspekten des Lernens und der Informationstheorie befasst. Die Forschung, die prädiktive Informationen mit Komplexitätsmaßen verbindet, steht im Einklang mit dem interdisziplinären Charakter der neuronalen Berechnung und stützt sich auf Mathematik, Physik und Informatik. Der Inhalt bezieht sich auf Informatik, Technologie und neuronale Netze.

Auffrischen
Zitate
Zitationsanalyse
Die erste Studie, die diesen Artikel zitiert hat, trug den Titel Complexity through nonextensivity und wurde in 2001. veröffentlicht. Die aktuellste Zitierung stammt aus einer 2024 Studie mit dem Titel Complexity through nonextensivity Seinen Höhepunkt an Zitierungen erreichte dieser Artikel in 2017 mit 19 Zitierungen.Es wurde in 116 verschiedenen Zeitschriften zitiert., 19% davon sind Open Access. Unter den verwandten Fachzeitschriften wurde diese Forschung am häufigsten von Entropy zitiert, mit 23 Zitierungen. Die folgende Grafik veranschaulicht die jährlichen Zitationstrends für diesen Artikel.
Zitate verwendeten diesen Artikel für Jahr