По моему мнению, вы мало что можете сделать:
Tensorflow сохраняет модели, используя буферы протокола , кодирует значения с помощью сериализации переменной длины .
Когда вы начинаете тренироваться, ваши нетто-веса в основном устанавливаются на ноль (по крайней мере, для смещений). Итак, сначала это происходит быстро, потому что для кодирования нулей требуется меньше времени, чем для более сложных значений.
Я бы сказал, что для данной сети тренировочное время & amp; тенденция к экономии времени должна стремиться к некоторому значению, но ожидать достижения предела всего лишь с 3k шагов не имеет смысла, попробуйте потренироваться с итерациями 100k, чтобы увидеть, достигнете ли вы определенного максимального времени за шаг через некоторое время.
boost bcp
Ваш друг. Это позволяет извлекать отдельные библиотеки повышения из своего дерева. Я использовал его с успехом в прошлом. shared_ptr состоит только из заголовков, так, чтобы было особенно хорошо для Вас.
Можно использовать BCP в качестве litb предложенный, но если Вы волнуетесь по поводу того, чтобы притягивать дополнительный код библиотеки, Вы не должны быть. Повышение, в целом, следует, философия C++ "Вас только платят за то, что Вы используете". Так, если Вы включаете только shared_ptr заголовки, это - все, что будет использовать Ваш код.
При использовании последней версии Visual C++ в Windows BoostPro предоставляет удобный бесплатный установщик здесь: http://www.boostpro.com/products/free.
Иначе, или если Вы уже загрузили исходное распределение, необходимо на самом деле смочь начать использовать shared_ptr и друзей сразу же, поскольку shared_ptr библиотека "только для заголовка" - никакая компиляция .cpp файлов не требуется.