Вы можете попробовать следующие шаги:
- Использовать среднеквадратическую ошибку функцию потерь.
- Используйте Адама , который поможет вам быстрее сходиться с низкой скоростью обучения, такой как 0,0001 или 0,001. В противном случае попробуйте использовать оптимизатор RMSprop .
- Используйте регуляризаторы по умолчанию . На самом деле это не так.
- Поскольку это регрессионная задача, используют функцию активации, такую как ReLU, во всех слоях, кроме выходного слоя (включая входной слой). Используйте линейную активацию в выходном слое .
- Как уже упоминалось в комментариях @pooyan, нормализуют особенности . См. здесь . Даже попробуйте стандартизировать функции . Используйте то, что подходит лучше всего.
ответ дан Shubham Panchal 17 January 2019 в 07:35
поделиться