A Unifying Review of Linear Gaussian Models

Artikeleigenschaften
  • Sprache
    English
  • Veröffentlichungsdatum
    1999/02/01
  • Zeitschrift
  • Indian UGC (Zeitschrift)
  • Auffrischen
    33
  • Zitate
    304
  • Sam Roweis Computation and Neural Systems, California Institute of Technology, Pasadena, CA 91125, U.S.A.
  • Zoubin Ghahramani Department of Computer Science, University of Toronto, Toronto, Canada
Abstrakt
Zitieren
Roweis, Sam, and Zoubin Ghahramani. “A Unifying Review of Linear Gaussian Models”. Neural Computation, vol. 11, no. 2, 1999, pp. 305-4, https://doi.org/10.1162/089976699300016674.
Roweis, S., & Ghahramani, Z. (1999). A Unifying Review of Linear Gaussian Models. Neural Computation, 11(2), 305-345. https://doi.org/10.1162/089976699300016674
Roweis S, Ghahramani Z. A Unifying Review of Linear Gaussian Models. Neural Computation. 1999;11(2):305-4.
Journalkategorien
Medicine
Internal medicine
Neurosciences
Biological psychiatry
Neuropsychiatry
Science
Mathematics
Instruments and machines
Electronic computers
Computer science
Technology
Electrical engineering
Electronics
Nuclear engineering
Electronics
Technology
Mechanical engineering and machinery
Beschreibung

Entdecken Sie die Vernetzung verschiedener unüberwachter Lerntechniken innerhalb eines einheitlichen Rahmens. Dieser umfassende Übersichtsartikel zeigt, wie Faktorenanalyse, Hauptkomponentenanalyse, Mischungen aus Gaußschen Clustern, Kalman-Filtermodelle und Hidden-Markov-Modelle als Variationen eines einzelnen grundlegenden generativen Modells angesehen werden können. Die Forschung zielt darauf ab, unterschiedliche Beobachtungen zu einem kohärenten Verständnis dieser Modelle zusammenzufassen. Durch die Einführung eines neuartigen Ansatzes zur Verknüpfung diskreter und kontinuierlicher Zustandsmodelle mithilfe einer einfachen Nichtlinearität erzielt diese Studie eine vereinheitlichende Perspektive. Durch zusätzliche Nichtlinearitäten wird gezeigt, wie auch die unabhängige Komponentenanalyse in diesen Rahmen passt. Der Übersichtsartikel hebt die Implementierung der Faktorenanalyse und Mischungen von Gaußschen in Autoencoder-Neuronalen Netzen hervor. Ein neues Modell für statische Daten, bekannt als sinnvolle Hauptkomponentenanalyse, wird zusammen mit dem Konzept des räumlich adaptiven Beobachtungsrauschens eingeführt. Die Arbeit enthält Pseudocode für Inferenz und Lernen für alle grundlegenden Modelle und bietet eine wertvolle Ressource für Forscher und Praktiker im Bereich des maschinellen Lernens.

Dieser in Neural Computation veröffentlichte Übersichtsartikel steht in direktem Einklang mit dem Fokus der Zeitschrift auf theoretische und rechnerische Aspekte von neuronalen Netzen und maschinellem Lernen. Die Arbeit trägt zur Berichterstattung der Zeitschrift über unüberwachte Lernalgorithmen und ihre mathematischen Grundlagen bei. Ihr Fokus auf lineare Gaußsche Modelle und ihre Vereinigung ist relevant für das Publikum der Computational Neuroscience.

Auffrischen
Zitate
Zitationsanalyse
Die erste Studie, die diesen Artikel zitiert hat, trug den Titel Variational Learning for Switching State-Space Models und wurde in 2000. veröffentlicht. Die aktuellste Zitierung stammt aus einer 2024 Studie mit dem Titel Variational Learning for Switching State-Space Models Seinen Höhepunkt an Zitierungen erreichte dieser Artikel in 2012 mit 19 Zitierungen.Es wurde in 193 verschiedenen Zeitschriften zitiert., 16% davon sind Open Access. Unter den verwandten Fachzeitschriften wurde diese Forschung am häufigsten von Neural Computation zitiert, mit 16 Zitierungen. Die folgende Grafik veranschaulicht die jährlichen Zitationstrends für diesen Artikel.
Zitate verwendeten diesen Artikel für Jahr