У меня есть 8 категорий, которые мне нужно классифицировать, используя код matlabta svm [duplicate]

Я знаю, что LIBSVM допускает только классификацию один-один-один, когда речь идет о мульти-классе SVM. Тем не менее, я хотел бы немного настроить его, чтобы выполнить классификацию «один против всех». Я попытался выполнить одно-против-все ниже. Это правильный подход?

Код:

TrainLabel;TrainVec;TestVec;TestLaBel;
u=unique(TrainLabel);
N=length(u);
if(N>2)
    itr=1;
    classes=0;
    while((classes~=1)&&(itr<=length(u)))
        c1=(TrainLabel==u(itr));
        newClass=c1;
        model = svmtrain(TrainLabel, TrainVec, '-c 1 -g 0.00154'); 
        [predict_label, accuracy, dec_values] = svmpredict(TestLabel, TestVec, model);
        itr=itr+1;
    end
itr=itr-1;
end

Возможно, я допустил некоторые ошибки. Я хотел бы услышать некоторые отзывы. Спасибо.

Вторая часть: Как сказал grapeot: Мне нужно сделать Sum-pooling (или голосование как упрощенное решение), чтобы придумать окончательный ответ. Я не уверен, как это сделать. Мне нужна помощь; Я видел файл python, но все же не очень уверен. Мне нужна помощь.

12
задан Amro 31 January 2012 в 22:09
поделиться

3 ответа

%# Fisher Iris dataset
load fisheriris
[~,~,labels] = unique(species);   %# labels: 1/2/3
data = zscore(meas);              %# scale features
numInst = size(data,1);
numLabels = max(labels);

%# split training/testing
idx = randperm(numInst);
numTrain = 100; numTest = numInst - numTrain;
trainData = data(idx(1:numTrain),:);  testData = data(idx(numTrain+1:end),:);
trainLabel = labels(idx(1:numTrain)); testLabel = labels(idx(numTrain+1:end));
%# train one-against-all models
model = cell(numLabels,1);
for k=1:numLabels
    model{k} = svmtrain(double(trainLabel==k), trainData, '-c 1 -g 0.2 -b 1');
end

%# get probability estimates of test instances using each model
prob = zeros(numTest,numLabels);
for k=1:numLabels
    [~,~,p] = svmpredict(double(testLabel==k), testData, model{k}, '-b 1');
    prob(:,k) = p(:,model{k}.Label==1);    %# probability of class==k
end

%# predict the class with the highest probability
[~,pred] = max(prob,[],2);
acc = sum(pred == testLabel) ./ numel(testLabel)    %# accuracy
C = confusionmat(testLabel, pred)                   %# confusion matrix
10
ответ дан lakesh 20 August 2018 в 08:20
поделиться

Из кода, который я вижу, вы пытаетесь сначала превратить метки в «некоторый класс» против «не этого класса», а затем вызвать LibSVM для обучения и тестирования. Некоторые вопросы и предложения:

  1. Почему вы используете оригинал TrainingLabel для обучения? На мой взгляд, должно ли оно быть model = svmtrain(newClass, TrainVec, '-c 1 -g 0.00154');?
  2. С модифицированным механизмом обучения вам также необходимо настроить часть предсказания, например, использовать суммирование для определения окончательной метки. Использование переключателя -b в LibSVM для включения вероятностного выхода также улучшит точность.
4
ответ дан grapeot 20 August 2018 в 08:20
поделиться
  • 1
    спасибо alot ... btw, вы знаете, как сделать один против одного с помощью LIBSVM? я не уверен, как это сделать ... – lakesh 21 January 2012 в 16:47
  • 2
    Простое наложение меток, отличных от 0 & lt; = & gt; 1 или -1 & lt; = & gt; 1, как входной сигнал является хорошим. LibSVM узнает его и попытается сделать классификацию нескольких классов. – grapeot 21 January 2012 в 17:20
  • 3
    то это один против одного? – lakesh 21 January 2012 в 17:38
  • 4
    Кстати, это дает мне эту ошибку, когда я меняю ее на newClass: Ошибка: вектор метки и матрица экземпляра должны быть двойным файлом модели, должен быть массив struct – lakesh 21 January 2012 в 17:42
  • 5
    Официальную реализацию в python одного-против-все в python на основе LibSVM можно найти на веб-сайте: csie.ntu.edu.tw/~cjlin/libsvmtools/multilabel – grapeot 21 January 2012 в 18:27

Вместо вероятностных оценок вы также можете использовать значения решений следующим образом

[~,~,d] = svmpredict(double(testLabel==k), testData, model{k});
prob(:,k) = d * (2 * model{i}.Label(1) - 1);

для достижения той же цели.

1
ответ дан Mihai Iorga 20 August 2018 в 08:20
поделиться
Другие вопросы по тегам:

Похожие вопросы: