Я возился с машинным обучением, и я написал реализацию алгоритма K Means на Python. Он берет двухмерные данные и организует их в кластеры. Каждая точка данных также имеет значение класса 0 или 1.
Что меня смущает в алгоритме, так это то, как я могу затем использовать его для прогнозирования некоторых значений для другого набора двумерных данных, который не имеет 0 или 1, но вместо этого неизвестно. Должен ли я усреднять точки в каждом кластере до 0 или 1, и если неизвестная точка находится ближе всего к этому кластеру, то эта неизвестная точка принимает усредненное значение? Или есть более умный метод?
Ура!