Nonlinear Component Analysis as a Kernel Eigenvalue Problem

Artikeleigenschaften
  • Sprache
    English
  • Veröffentlichungsdatum
    1998/07/01
  • Zeitschrift
  • Indian UGC (Zeitschrift)
  • Auffrischen
    7
  • Zitate
    3,359
  • Bernhard Schölkopf Max-Planck-Institut für biologische Kybernetik, 72076 Tübingen, Germany
  • Alexander Smola GMD First (Forschungszentrum Informationstechnik), 12489 Berlin, Germany
  • Klaus-Robert Müller GMD First (Forschungszentrum Informationstechnik), 12489 Berlin, Germany
Abstrakt
Zitieren
Schölkopf, Bernhard, et al. “Nonlinear Component Analysis As a Kernel Eigenvalue Problem”. Neural Computation, vol. 10, no. 5, 1998, pp. 1299-1, https://doi.org/10.1162/089976698300017467.
Schölkopf, B., Smola, A., & Müller, K.-R. (1998). Nonlinear Component Analysis as a Kernel Eigenvalue Problem. Neural Computation, 10(5), 1299-1319. https://doi.org/10.1162/089976698300017467
Schölkopf B, Smola A, Müller KR. Nonlinear Component Analysis as a Kernel Eigenvalue Problem. Neural Computation. 1998;10(5):1299-31.
Journalkategorien
Medicine
Internal medicine
Neurosciences
Biological psychiatry
Neuropsychiatry
Science
Mathematics
Instruments and machines
Electronic computers
Computer science
Technology
Electrical engineering
Electronics
Nuclear engineering
Electronics
Technology
Mechanical engineering and machinery
Beschreibung

Können Kernel-Methoden verborgene Muster in komplexen Daten aufdecken? Diese Arbeit stellt einen neuartigen Ansatz zur nichtlinearen Hauptkomponentenanalyse (PCA) vor, eine entscheidende Technik im Bereich des maschinellen Lernens und der Mustererkennung. Durch die Nutzung von Integraloperator-Kernelfunktionen berechnet die Methode effizient Hauptkomponenten innerhalb hochdimensionaler Merkmalsräume. Die Technik vermeidet die Rechenlast, die typischerweise mit nichtlinearen Transformationen verbunden ist. Der Kern dieser Forschung liegt in ihrer Fähigkeit, relevante Merkmale aus Daten zu extrahieren, die von Natur aus nichtlinear sind. Die Verwendung von Kernelfunktionen ermöglicht die Erforschung komplexer Beziehungen, wie z. B. des Raums aller möglichen Fünf-Pixel-Produkte in Bildern, ohne diese hochdimensionalen Merkmale explizit zu berechnen. Diese Methode eignet sich besonders für Anwendungen, bei denen die zugrunde liegende Datenstruktur komplex und schwer linear zu modellieren ist. Experimentelle Ergebnisse bestätigen die Wirksamkeit dieses Ansatzes und demonstrieren sein Potenzial bei Aufgaben der Mustererkennung. Die Methode bietet eine praktische Lösung zur Extraktion aussagekräftiger Merkmale aus hochdimensionalen Daten und ebnet den Weg für eine verbesserte Leistung in verschiedenen Anwendungen des maschinellen Lernens, wie z. B. Bildanalyse und Data Mining. Die Entwicklung solcher Methoden kann die Grenzen der künstlichen Intelligenz verschieben.

Dieser Artikel wurde in Neural Computation veröffentlicht, einer führenden Fachzeitschrift auf diesem Gebiet, und befasst sich direkt mit dem Schwerpunkt der Zeitschrift auf theoretischer und experimenteller Forschung zu neuronalen Netzen und verwandten computergestützten Ansätzen in den Neurowissenschaften. Die Arbeit trägt eine neuartige Methode zur nichtlinearen Dimensionsreduktion bei, ein grundlegendes Problem im Bereich des neuronalen Rechnens und der Mustererkennung.

Auffrischen
Zitate
Zitationsanalyse
Die erste Studie, die diesen Artikel zitiert hat, trug den Titel Support vector machines und wurde in 1998. veröffentlicht. Die aktuellste Zitierung stammt aus einer 2024 Studie mit dem Titel Support vector machines Seinen Höhepunkt an Zitierungen erreichte dieser Artikel in 2021 mit 223 Zitierungen.Es wurde in 965 verschiedenen Zeitschriften zitiert., 16% davon sind Open Access. Unter den verwandten Fachzeitschriften wurde diese Forschung am häufigsten von Neurocomputing zitiert, mit 159 Zitierungen. Die folgende Grafik veranschaulicht die jährlichen Zitationstrends für diesen Artikel.
Zitate verwendeten diesen Artikel für Jahr