Mixtures of Probabilistic Principal Component Analyzers

Artikeleigenschaften
  • Sprache
    English
  • Veröffentlichungsdatum
    1999/02/01
  • Zeitschrift
  • Indian UGC (Zeitschrift)
  • Auffrischen
    18
  • Zitate
    724
  • Michael E. Tipping Microsoft Research, St. George House, Cambridge CB2 3NH, U.K.
  • Christopher M. Bishop Microsoft Research, St. George House, Cambridge CB2 3NH, U.K.
Abstrakt
Zitieren
Tipping, Michael E., and Christopher M. Bishop. “Mixtures of Probabilistic Principal Component Analyzers”. Neural Computation, vol. 11, no. 2, 1999, pp. 443-82, https://doi.org/10.1162/089976699300016728.
Tipping, M. E., & Bishop, C. M. (1999). Mixtures of Probabilistic Principal Component Analyzers. Neural Computation, 11(2), 443-482. https://doi.org/10.1162/089976699300016728
Tipping ME, Bishop CM. Mixtures of Probabilistic Principal Component Analyzers. Neural Computation. 1999;11(2):443-82.
Journalkategorien
Medicine
Internal medicine
Neurosciences
Biological psychiatry
Neuropsychiatry
Science
Mathematics
Instruments and machines
Electronic computers
Computer science
Technology
Electrical engineering
Electronics
Nuclear engineering
Electronics
Technology
Mechanical engineering and machinery
Beschreibung

Wie können wir die Einschränkungen der traditionellen Hauptkomponentenanalyse (PCA) überwinden? Diese Arbeit stellt einen Mischmodellansatz für die Hauptkomponentenanalyse vor, der die Einschränkungen angeht, die durch die globale Linearität der PCA auferlegt werden. Während es nichtlineare PCA-Varianten gibt, untersucht diese Forschung die Erfassung von Datenkomplexität durch eine Kombination lokaler linearer PCA-Projektionen. Der Hauptzweck ist es, die PCA innerhalb eines Maximum-Likelihood-Frameworks einzuführen. Die PCA wird innerhalb eines Maximum-Likelihood-Frameworks formuliert, wobei ein Gaußsches latentes Variablenmodell verwendet wird. Dieses Framework führt zu einem wohldefinierten Mischmodell für probabilistische Hauptkomponentenanalysatoren, dessen Parameter mithilfe eines Erwartungsmaximierungsalgorithmus bestimmt werden können. Die Verwendung eines Erwartungsmaximierungsalgorithmus hilft bei der Berechnung der Parameter. Die Vorteile des Modells werden im Kontext von Clustering, Dichtemodellierung und lokaler Dimensionsreduktion diskutiert. Der Nutzen des Mischmodells wird durch Anwendungen in der Bildkompression und der Erkennung handgeschriebener Ziffern demonstriert. Dieser Ansatz bietet ein leistungsstarkes Werkzeug zur Erfassung von Datenkomplexität und zur Verbesserung der Leistung der PCA in verschiedenen Anwendungen.

Diese in Neural Computation veröffentlichte Arbeit konzentriert sich auf einen Kernbereich der Forschung in neuronalen Netzen und maschinellem Lernen: Dimensionsreduktion. Die Entwicklung eines Mischmodells für die PCA ist ein bedeutender Beitrag zu diesem Gebiet, der mit dem Interesse der Zeitschrift an neuartigen Berechnungstechniken zur Datenanalyse übereinstimmt. Dieser Ansatz ist für den theoretischen und angewandten Fokus der Zeitschrift geeignet.

Auffrischen
Zitate
Zitationsanalyse
Die erste Studie, die diesen Artikel zitiert hat, trug den Titel A hierarchical latent variable model for data visualization und wurde in 1998. veröffentlicht. Die aktuellste Zitierung stammt aus einer 2024 Studie mit dem Titel A hierarchical latent variable model for data visualization Seinen Höhepunkt an Zitierungen erreichte dieser Artikel in 2022 mit 51 Zitierungen.Es wurde in 325 verschiedenen Zeitschriften zitiert., 17% davon sind Open Access. Unter den verwandten Fachzeitschriften wurde diese Forschung am häufigsten von Neurocomputing zitiert, mit 31 Zitierungen. Die folgende Grafik veranschaulicht die jährlichen Zitationstrends für diesen Artikel.
Zitate verwendeten diesen Artikel für Jahr