Versteckte Markov-Modelle mit Bayes'schen Netzen navigieren: Dieses Tutorial führt versteckte Markov-Modelle (HMMs) durch die Linse von Bayes'schen Netzen ein und bietet eine neue Perspektive auf das Lernen und die Inferenz. Indem die Autoren HMMs im Rahmen des Bayes'schen Netzwerks verorten, erleichtern sie die Betrachtung neuartiger Verallgemeinerungen, wie z. B. Modelle mit mehreren versteckten Zustandsvariablen, mehrskalige Darstellungen und gemischte diskrete und stetige Variablen. Diese Modelle werden für die Spracherkennung verwendet. Obwohl eine exakte Inferenz in diesen verallgemeinerten HMMs oft unhandlich ist, heben die Autoren den Nutzen approximativer Inferenzalgorithmen hervor, einschließlich Markov-Ketten-Sampling und Variationsmethoden. Der Artikel bietet Anleitungen zur Anwendung solcher Methoden auf diese erweiterten HMM-Varianten. Dieser Ansatz ermöglicht es, neuartige Verallgemeinerungen von versteckten Markov-Modellen mit mehreren versteckten Zustandsvariablen, mehrskaligen Darstellungen und gemischten diskreten und stetigen Variablen zu betrachten. Der Überblick schließt mit einer Diskussion über Bayes'sche Methoden zur Modellauswahl in verallgemeinerten HMMs und bietet einen umfassenden Leitfaden für Forscher und Praktiker, die die Leistungsfähigkeit dieser probabilistischen Modelle in verschiedenen Anwendungen nutzen möchten.
Dieser Artikel, der im International Journal of Pattern Recognition and Artificial Intelligence veröffentlicht wurde, steht in perfektem Einklang mit dem Umfang der Zeitschrift. Durch die Einführung versteckter Markov-Modelle durch die Linse von Bayes'schen Netzen trägt dieser Artikel sowohl zur Mustererkennung als auch zur KI bei. Die mehrfachen Zitate im Laufe der Zeit deuten darauf hin, dass dieses Tutorial für dieses Gebiet immer noch relevant ist.