Learning Overcomplete Representations

Artikeleigenschaften
  • Sprache
    English
  • Veröffentlichungsdatum
    2000/02/01
  • Zeitschrift
  • Indian UGC (Zeitschrift)
  • Auffrischen
    21
  • Zitate
    461
  • Michael S. Lewicki Computer Science Dept. and Center for the Neural Basis of Cognition, Carnegie Mellon Univ., 115 Mellon Inst., 4400 Fifth Ave., Pittsburgh, PA 15213
  • Terrence J. Sejnowski Howard Hughes Medical Institute, Computational Neurobiology Laboratory, The Salk Institute, La Jolla, CA 92037, U.S.A.
Abstrakt
Zitieren
Lewicki, Michael S., and Terrence J. Sejnowski. “Learning Overcomplete Representations”. Neural Computation, vol. 12, no. 2, 2000, pp. 337-65, https://doi.org/10.1162/089976600300015826.
Lewicki, M. S., & Sejnowski, T. J. (2000). Learning Overcomplete Representations. Neural Computation, 12(2), 337-365. https://doi.org/10.1162/089976600300015826
Lewicki MS, Sejnowski TJ. Learning Overcomplete Representations. Neural Computation. 2000;12(2):337-65.
Journalkategorien
Medicine
Internal medicine
Neurosciences
Biological psychiatry
Neuropsychiatry
Science
Mathematics
Instruments and machines
Electronic computers
Computer science
Technology
Electrical engineering
Electronics
Nuclear engineering
Electronics
Technology
Mechanical engineering and machinery
Beschreibung

Kann Redundanz die Codiereffizienz verbessern? Diese Forschung untersucht das Konzept übervollständiger Darstellungen, bei denen die Anzahl der Basisvektoren die Dimensionalität des Eingangssignals übersteigt. Die Studie untersucht einen Algorithmus zum Erlernen einer übervollständigen Basis, indem sie ihn als probabilistisches Modell beobachteter Daten formuliert. Übervollständige Codes wurden auch als Modell für einige der Reaktionseigenschaften von Neuronen im primären visuellen Kortex vorgeschlagen. Übervollständige Codes wurden auch als Modell für einige der Reaktionseigenschaften von Neuronen im primären visuellen Kortex vorgeschlagen. Frühere Arbeiten haben sich darauf konzentriert, die beste Darstellung eines Signals mit einer festen übervollständigen Basis (oder einem Wörterbuch) zu finden. Die Autoren zeigen, dass übervollständige Basen die zugrunde liegende statistische Verteilung von Daten besser annähern können, was zu einer verbesserten Codiereffizienz führt. Dieser Ansatz kann als Verallgemeinerung der unabhängigen Komponentenanalyse betrachtet werden und bietet eine Methode zur Bayes'schen Rekonstruktion von Signalen in Gegenwart von Rauschen und zur blinden Quellentrennung, wenn es mehr Quellen als Mischungen gibt. Die Ergebnisse haben Auswirkungen auf die neuronale Codierung und Signalverarbeitung und ebnen den Weg für robustere und flexiblere Darstellungsschemata in verschiedenen Anwendungen.

Diese in Neural Computation veröffentlichte Forschung steht im Einklang mit dem Fokus der Zeitschrift auf theoretische und computergestützte Neurowissenschaften. Durch die Vorstellung eines Algorithmus zum Erlernen übervollständiger Darstellungen und den Nachweis seines Potenzials zur Verbesserung der Codiereffizienz trägt die Studie zum Umfang der Zeitschrift bei, indem sie grundlegende Fragen zur neuronalen Codierung und Informationsverarbeitung behandelt.

Auffrischen
Zitate
Zitationsanalyse
Die erste Studie, die diesen Artikel zitiert hat, trug den Titel Blind source separation of more sources than mixtures using overcomplete representations und wurde in 1999. veröffentlicht. Die aktuellste Zitierung stammt aus einer 2024 Studie mit dem Titel Blind source separation of more sources than mixtures using overcomplete representations Seinen Höhepunkt an Zitierungen erreichte dieser Artikel in 2006 mit 34 Zitierungen.Es wurde in 206 verschiedenen Zeitschriften zitiert., 13% davon sind Open Access. Unter den verwandten Fachzeitschriften wurde diese Forschung am häufigsten von IEEE Transactions on Signal Processing zitiert, mit 27 Zitierungen. Die folgende Grafik veranschaulicht die jährlichen Zitationstrends für diesen Artikel.
Zitate verwendeten diesen Artikel für Jahr