Вы, вероятно, знаете или подозреваете это, но нет статистической основы для предположения или предоставления недостающих значений путем усреднения по диапазону возможных значений и т. Д.
В частности, для NN доступно довольно много техник. Техника, которую я использую - которую я закодировал, - одна из самых простых, но она имеет прочную статистическую основу и используется до сих пор.Академическая статья, которая описывает это здесь .
Теория, лежащая в основе этого метода, основана на взвешенном интегрировании по не собранным данным. На практике интегралы не вычисляются, вместо этого они аппроксимируются решениями в замкнутой форме сетей с базисной функцией Гаусса. Как вы увидите в документе (который представляет собой пошаговое объяснение, это просто реализовать в вашем алгоритме обратного распространения).
Нейронные сети довольно устойчивы к шуму - это одно из их больших преимуществ. Вместо этого вы можете попробовать поместить входные данные в (-1.0,1.0), но с 0 в качестве входных данных. Таким образом, входные данные для весов от этого нейрона равны 0,0, что означает, что там не будет никакого обучения.
Вероятно, лучшая книга, которую я когда-либо имел несчастье не дочитать (пока!), - это Нейронные сети и обучающие машины Саймона С. Хайкина. В ней он говорит о всевозможных проблемах, в том числе о том, как вы должны распределять свои вводные / обучающие наборы для наилучшего обучения и т. Д. Это действительно отличная книга!