Кластеризация Matlab:K-средств

Вы подтверждали CD, который Вы вставили, не имеют никакой проблемы? Разве CD не повреждается? Если эта проблема происходит случайным образом, проверьте, работает ли Ваш дисковод для компакт-дисков правильно, или попытайтесь убрать диск. Если Вы - частый пользователь CD/DVD-привода, часть погрузки дисковода для компакт-дисков может быть потрачена впустую вниз.

7
задан mjv 27 February 2010 в 03:05
поделиться

4 ответа

Я не могу придумать лучшего способа сделать это, чем то, что вы описали. Встроенная функция сохраняла бы одну строку, но я не мог ее найти. Вот код, который я бы использовал:

[ids ctrs]=kmeans(A,19);
D = dist([testpoint;ctrs]); %testpoint is 1x10 and D will be 20x20
[distance testpointID] = min(D(1,2:end));
4
ответ дан 6 December 2019 в 10:52
поделиться

Предполагая, что вы используете евклидову метрику расстояния в квадрате, попробуйте следующее:

for i = 1:size(ctrs,2)
d(:,i) = sum((B-ctrs(repmat(i,size(B,1),1),:)).^2,2);
end
[distances,predicted] = min(d,[],2)

прогнозируемый должен содержать индекс ближайшего центроида, а расстояния должны содержать расстояния до ближайшего центроида. .

Загляните внутрь функции kmeans, на подфункцию distfun. Здесь показано, как это сделать, а также приведены эквиваленты для других показателей расстояния.

1
ответ дан 6 December 2019 в 10:52
поделиться

для небольшого количества данных можно использовать

[testpointID,dum] = find(permute(all(bsxfun(@eq,B,permute(ctrs,[3,2,1])),2),[3,1,2]))

, но это не совсем понятно; bsxfun с переставленными ctrs создает массив логических значений 49 x 10 x 19, который затем объединяется во втором измерении, переставляется обратно, а затем находятся идентификаторы строк. опять же, вероятно, нецелесообразно для больших объемов данных.

0
ответ дан 6 December 2019 в 10:52
поделиться

Ниже приведен полный пример кластеризации:

%% generate sample data
K = 3;
numObservarations = 100;
dimensions = 3;
data = rand([numObservarations dimensions]);

%% cluster
opts = statset('MaxIter', 500, 'Display', 'iter');
[clustIDX, clusters, interClustSum, Dist] = kmeans(data, K, 'options',opts, ...
    'distance','sqEuclidean', 'EmptyAction','singleton', 'replicates',3);

%% plot data+clusters
figure, hold on
scatter3(data(:,1),data(:,2),data(:,3), 50, clustIDX, 'filled')
scatter3(clusters(:,1),clusters(:,2),clusters(:,3), 200, (1:K)', 'filled')
hold off, xlabel('x'), ylabel('y'), zlabel('z')

%% plot clusters quality
figure
[silh,h] = silhouette(data, clustIDX);
avrgScore = mean(silh);


%% Assign data to clusters
% calculate distance (squared) of all instances to each cluster centroid
D = zeros(numObservarations, K);     % init distances
for k=1:K
    %d = sum((x-y).^2).^0.5
    D(:,k) = sum( ((data - repmat(clusters(k,:),numObservarations,1)).^2), 2);
end

% find  for all instances the cluster closet to it
[minDists, clusterIndices] = min(D, [], 2);

% compare it with what you expect it to be
sum(clusterIndices == clustIDX)
11
ответ дан 6 December 2019 в 10:52
поделиться
Другие вопросы по тегам:

Похожие вопросы: