Variational Learning for Switching State-Space Models

Artikeleigenschaften
  • Sprache
    English
  • Veröffentlichungsdatum
    2000/04/01
  • Zeitschrift
  • Indian UGC (Zeitschrift)
  • Auffrischen
    29
  • Zitate
    132
  • Zoubin Ghahramani Gatsby Computational Neuroscience Unit, University College London, London WC1N 3AR, U.K.
  • Geoffrey E. Hinton Gatsby Computational Neuroscience Unit, University College London, London WC1N 3AR, U.K.
Abstrakt
Zitieren
Ghahramani, Zoubin, and Geoffrey E. Hinton. “Variational Learning for Switching State-Space Models”. Neural Computation, vol. 12, no. 4, 2000, pp. 831-64, https://doi.org/10.1162/089976600300015619.
Ghahramani, Z., & Hinton, G. E. (2000). Variational Learning for Switching State-Space Models. Neural Computation, 12(4), 831-864. https://doi.org/10.1162/089976600300015619
Ghahramani Z, Hinton GE. Variational Learning for Switching State-Space Models. Neural Computation. 2000;12(4):831-64.
Journalkategorien
Medicine
Internal medicine
Neurosciences
Biological psychiatry
Neuropsychiatry
Science
Mathematics
Instruments and machines
Electronic computers
Computer science
Technology
Electrical engineering
Electronics
Nuclear engineering
Electronics
Technology
Mechanical engineering and machinery
Beschreibung

Können wir ein besseres Modell für Zeitreihendaten erstellen? In diesem Artikel wird ein neues statistisches Modell vorgestellt, das Zeitreihendaten in Regimes mit annähernd linearer Dynamik segmentiert und die Parameter jedes Regimes lernt. Dieses Modell kombiniert Hidden-Markov-Modelle und lineare dynamische Systeme. Die Autoren stellen eine Variationsapproximation vor, die eine untere Schranke für die Log-Likelihood maximiert und sowohl Vorwärts- als auch Rückwärtsrekursionen verwendet. Tests an künstlichen und natürlichen Daten deuten auf die Realisierbarkeit von Variationsapproximationen für Inferenz und Lernen in Switching-State-Space-Modellen hin.

Dieser Artikel, der in Neural Computation veröffentlicht wurde, stimmt mit dem Schwerpunkt des Journals auf Rechenmethoden, maschinelles Lernen und neuronale Netze überein. Die Forschung stellt ein neuartiges statistisches Modell und eine Variationsapproximation für die Zeitreihenanalyse vor, die zum Bereich des maschinellen Lernens beiträgt. Seine Relevanz für die neuronale Berechnung und Datenanalyse macht es für die Leserschaft des Journals geeignet.

Auffrischen
Zitate
Zitationsanalyse
Die erste Studie, die diesen Artikel zitiert hat, trug den Titel AN INTRODUCTION TO HIDDEN MARKOV MODELS AND BAYESIAN NETWORKS und wurde in 2001. veröffentlicht. Die aktuellste Zitierung stammt aus einer 2024 Studie mit dem Titel AN INTRODUCTION TO HIDDEN MARKOV MODELS AND BAYESIAN NETWORKS Seinen Höhepunkt an Zitierungen erreichte dieser Artikel in 2021 mit 15 Zitierungen.Es wurde in 95 verschiedenen Zeitschriften zitiert., 21% davon sind Open Access. Unter den verwandten Fachzeitschriften wurde diese Forschung am häufigsten von IEEE Transactions on Signal Processing zitiert, mit 8 Zitierungen. Die folgende Grafik veranschaulicht die jährlichen Zitationstrends für diesen Artikel.
Zitate verwendeten diesen Artikel für Jahr