Algorithmen für die Mustererkennung hängen von der Art der Etikettenausgabe ab, davon, ob das Lernen überwacht oder unbeaufsichtigt ist, und davon, ob der Algorithmus statistischer oder nicht statistischer Natur ist. Statistische Algorithmen können weiter als generativ oder diskriminierend kategorisiert werden. Viele gängige Mustererkennungsalgorithmen sind probabilistisch, da sie statistische Schlussfolgerungen verwenden, um die beste Bezeichnung für eine bestimmte Instanz zu finden. Im Gegensatz zu anderen Algorithmen, die einfach eine “beste” Bezeichnung ausgeben, geben oft auch probabilistische Algorithmen eine Wahrscheinlichkeit aus, dass die Instanz durch die angegebene Bezeichnung beschrieben wird. Darüber hinaus geben viele probabilistische Algorithmen eine Liste der N-besten Labels mit zugehörigen Wahrscheinlichkeiten für einen bestimmten Wert von N aus, anstatt einfach nur ein einziges bestes Label. Wenn die Anzahl der möglichen Etiketten relativ gering ist (z. B. bei der Klassifizierung), kann N so eingestellt werden, dass die Wahrscheinlichkeit aller möglichen Etiketten ausgegeben wird. Probabilistische Algorithmen haben viele Vorteile gegenüber nicht-probabilistischen Algorithmen: Dieser Artikel konzentriert sich auf machine learning Ansätze zur Mustererkennung.

Mustererkennungssysteme werden in vielen Fällen aus beschrifteten “Trainingsdaten” (überwachtes Lernen) trainiert, aber wenn keine beschrifteten Daten verfügbar sind, können andere Algorithmen verwendet werden, um bisher unbekannte Muster zu entdecken (unbeaufsichtigtes Lernen). Maschinelles Lernen steht in enemtoler bezogen auf die Mustererkennung und stammt aus künstlicher Intelligenz. KDD und Data Mining konzentrieren sich stärker auf unbeaufsichtigte Methoden und eine stärkere Verbindung zur geschäftlichen Nutzung. Die Mustererkennung konzentriert sich mehr auf das Signal und berücksichtigt auch Die Erfassung und Signalverarbeitung. Es stammt aus dem Ingenieurwesen, und der Begriff ist im Kontext der Computer Vision beliebt: eine führende Computer Vision Konferenz heißt Konferenz über Computer Vision und Mustererkennung. Bei der Mustererkennung kann ein höheres Interesse an der Formalisierung, Erklärung und Visualisierung des Musters bestehen, während maschinelles Lernen sich traditionell auf die Maximierung der Erkennungsraten konzentriert. Doch all diese Bereiche haben sich wesentlich von ihren Wurzeln in künstlicher Intelligenz, Technik und Statistik entwickelt, und sie sind sich immer ähnlicher geworden, indem sie Entwicklungen und Ideen voneinander integrieren. Der erste Musterklassifier – der von Fisher präsentierte lineare Diskriminant – wurde in der vielschichtigen Tradition entwickelt. Der häufige Ansatz beinhaltet, dass die Modellparameter als unbekannt, aber objektiv betrachtet werden. Die Parameter werden dann aus den gesammelten Daten berechnet (geschätzt). Für den linearen Diskriminanz sind diese Parameter genau die Mittelwerte und die Kovarianzmatrix. Auch die Wahrscheinlichkeit jeder Klasse p ( l a b e l | ) .

. . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . .

. . . . . . . . . .

. . . . . . . . . Das gesammelte Dataset wird anhand des gesammelten Datasets geschätzt. Beachten Sie, dass die Verwendung der “Bayes-Regel” in einem Musterklassifler den Klassifizierungsansatz Bayesian nicht ermöglicht.

Die bayesische Statistik hat ihren Ursprung in der griechischen Philosophie, wo bereits zwischen dem “a priori” und dem “a posteriori”-Wissen unterschieden wurde. Später definierte Kant seine Unterscheidung zwischen dem, was a priori vor der Beobachtung bekannt ist, und dem empirischen Wissen aus Beobachtungen. In einem Bayesschen Musterklassifiker werden die Klassenwahrscheinlichkeiten p ( l a b e l | ) . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . .

. . . . . . . .

. . . . . . . . . . . .

. . . . . . . . .

. . . . . . Der Benutzer kann das ,,boldsymbol”-Präas”-Symbol “Theta” wählen, das dann von vornherein erfolgt.