Können wir die Mustererkennung durch die Verwendung von Zufallseinbettungen vereinfachen? Diese Forschung stellt Random Embedding Machines vor. Diese Maschinen befassen sich mit realen Klassifizierungsproblemen, die strukturierte Daten beinhalten. Es wird gezeigt, dass lokales Clustering, eine Menge von Punkten einer bestimmten Klasse, linear von anderen Klassen trennbar ist. Dies wird durch das Einbetten der Punkte in den binären Raum erreicht. Die Einbettung erfolgt durch eine Menge von zufällig parametrisierten Oberflächen, mit hoher Wahrscheinlichkeit. Dieser Datensatz wird als lokaler relativer Cluster bezeichnet. Die Grösse der Einbettungsmenge ist umgekehrt proportional zum quadrierten lokalen Clustering-Grad. Diese Methode schneidet mit viel weniger Zeit genauso gut ab wie modernste Methoden. Durch die Vereinfachung des Lernproblems hat diese Forschung Implikationen für das maschinelle Lernen. Sie löst langjährige Fragen zur Komplexität des Random Embedding. Dieser Ansatz ist relevant für die Entwicklung effizienter Mustererkennungssysteme.
Diese Studie zur Mustererkennung unter Verwendung von Random Embedding Machines passt zum Umfang von Neural Computation, wobei der Schwerpunkt auf neuronalen Netzen und maschinellem Lernen liegt. Der Ansatz zur Vereinfachung von Klassifizierungsproblemen und zur Reduzierung der Rechenkomplexität trägt zum Interesse des Journals an effizienten Algorithmen für die neuronale Berechnung bei.