Используя повышение shared_ptr

По моему мнению, вы мало что можете сделать:

Tensorflow сохраняет модели, используя буферы протокола , кодирует значения с помощью сериализации переменной длины .

Когда вы начинаете тренироваться, ваши нетто-веса в основном устанавливаются на ноль (по крайней мере, для смещений). Итак, сначала это происходит быстро, потому что для кодирования нулей требуется меньше времени, чем для более сложных значений.

Я бы сказал, что для данной сети тренировочное время & amp; тенденция к экономии времени должна стремиться к некоторому значению, но ожидать достижения предела всего лишь с 3k шагов не имеет смысла, попробуйте потренироваться с итерациями 100k, чтобы увидеть, достигнете ли вы определенного максимального времени за шаг через некоторое время.

9
задан Navaneeth K N 7 January 2009 в 13:14
поделиться

3 ответа

boost bcp Ваш друг. Это позволяет извлекать отдельные библиотеки повышения из своего дерева. Я использовал его с успехом в прошлом. shared_ptr состоит только из заголовков, так, чтобы было особенно хорошо для Вас.

15
ответ дан 4 December 2019 в 09:14
поделиться

Можно использовать BCP в качестве litb предложенный, но если Вы волнуетесь по поводу того, чтобы притягивать дополнительный код библиотеки, Вы не должны быть. Повышение, в целом, следует, философия C++ "Вас только платят за то, что Вы используете". Так, если Вы включаете только shared_ptr заголовки, это - все, что будет использовать Ваш код.

6
ответ дан 4 December 2019 в 09:14
поделиться

При использовании последней версии Visual C++ в Windows BoostPro предоставляет удобный бесплатный установщик здесь: http://www.boostpro.com/products/free.

Иначе, или если Вы уже загрузили исходное распределение, необходимо на самом деле смочь начать использовать shared_ptr и друзей сразу же, поскольку shared_ptr библиотека "только для заголовка" - никакая компиляция .cpp файлов не требуется.

2
ответ дан 4 December 2019 в 09:14
поделиться
Другие вопросы по тегам:

Похожие вопросы: