Können sich entwickelnde neuronale Netzwerk-Topologien zu signifikanten Leistungssteigerungen führen? Dieses Papier stellt eine Methode vor, die NeuroEvolution of Augmenting Topologies (NEAT), die Festtopologie-Methoden bei anspruchsvollen Aufgaben des verstärkenden Lernens übertrifft. NEAT demonstriert eine höhere Effizienz durch eine prinzipielle Methode der Kreuzung verschiedener Topologien, den Schutz struktureller Innovationen durch Speziation und das inkrementelle Wachstum aus minimaler Struktur. Eine Reihe von Ablationsstudien bestätigen die Notwendigkeit jeder Komponente für das System als Ganzes und füreinander, was zu einem deutlich schnelleren Lernen führt. NEAT bietet auch die Möglichkeit, im Laufe der Generationen immer komplexere Lösungen zu entwickeln, was die Analogie zur biologischen Evolution verstärkt. NEAT stellt einen bedeutenden Beitrag zu genetischen Algorithmen (GAs) dar und zeigt, wie die Evolution gleichzeitig Lösungen optimieren und komplexer machen kann, was neue Wege für die Entwicklung komplexer Lösungen über aufeinanderfolgende Generationen hinweg eröffnet.
Dieser Artikel wurde in Evolutionary Computation veröffentlicht und passt zum Schwerpunkt der Zeitschrift auf die Weiterentwicklung computergestützter Methoden, die von der biologischen Evolution inspiriert sind. Die NEAT-Methode trägt zum Bereich bei, indem sie zeigt, wie sich entwickelnde neuronale Netzwerk-Topologien die Lerneffizienz steigern können, was mit den Kerninteressen der Zeitschrift übereinstimmt.