Nach einiger Lektüre entdeckte ich, dass Soft-Voting einfach eine Gaußsche an jedem der Punkte platziert (Trainingsbeispiele), die abgestimmt werden.
Normalerweise würden wir einfach für Trainingsbeispiele abstimmen, die im Merkmalsraum am nächsten sind, normalerweise indem wir eins zu den Stimmen der nächsten Nachbarn hinzufügen. Stattdessen verwendet Soft-Voting einfach die Gaußsche Wahrscheinlichkeit aller Trainingsbeispiele als Bewertung und akkumuliert die jeweiligen Stimmen basierend auf jeder Punktzahl. Dies stellt einfach ein robusteres Abstimmungsschema bereit, da es relative Entfernungen, insbesondere in Räumen höherer Dimension, besser kennt.
Weitere Einzelheiten finden Sie in Mitchell et al. Ein "weiches" K-Nearest-Neighbour-Voting-Schema, 2001.
Für ein Beispiel, wo es verwendet wurde, siehe Agarwal et al. Wiederherstellen von 3D Human Pose von Monocular Images, 2005
Versuchen Sie, diese Frage im [stats.SE] (http://stats.stackexchange.com/) zu posten – csgillespie