Следует ли использовать np.linalg.norm при реализации алгоритма кластеризации k-средних?

Исключение нулевого указателя - это индикатор того, что вы используете объект, не инициализируя его.

Например, ниже - класс ученика, который будет использовать его в нашем коде.

public class Student {

    private int id;

    public int getId() {
        return this.id;
    }

    public setId(int newId) {
        this.id = newId;
    }
}

Приведенный ниже код дает вам исключение с нулевым указателем.

public class School {

    Student obj_Student;

    public School() {
        try {
            obj_Student.getId();
        }
        catch(Exception e) {
            System.out.println("Null Pointer ");
        }
    }
}

Поскольку вы используете Obj_Student, но вы забыли инициализировать его, как в правильном коде, показанном ниже:

public class School {

    Student obj_Student;

    public School() {
        try {
            obj_Student = new Student();
            obj_Student.setId(12);
            obj_Student.getId();
        }
        catch(Exception e) {
            System.out.println("Null Pointer ");
        }
    }
}
0
задан HeyJude 13 April 2019 в 23:33
поделиться

1 ответ

Опыт показывает, что использование нормы или квадрата нормы в качестве целевой функции алгоритма оптимизации дает аналогичные результаты. Минимальное значение объективной функции изменится, но полученные параметры будут такими же. Я всегда догадывался, что внутренний продукт порождает квадратичную функцию, а корень этого продукта изменил только величину, но не топологию объективной функции. Более подробный ответ можно найти здесь. https://math.stackexchange.com/questions/2253443/difference-between-least-squares-and-minimum-norm-solution Надеюсь, это поможет.

0
ответ дан TavoGLC 13 April 2019 в 23:33
поделиться
Другие вопросы по тегам:

Похожие вопросы: