Как настроить выходной интервал tenorflow legacy / train.py model.cpk

Если вы не можете найти свою версию с помощью brew search , вы также можете попробовать просмотреть журналы фиксации для своей формулы, чтобы найти нужную версию:

вот пример установки более старого версия nginx через заваривание:

From там, мы можем установить 1.6.3 с sha и raw git url:

brew install https://raw.githubusercontent.com/Homebrew/homebrew/eba75b9a1a474b9fc4df30bd0a32637fa31ec049/Library/Formula/nginx.rb

7
задан Artur Müller Romanov 16 January 2019 в 08:06
поделиться

1 ответ

Чтобы сохранить интервалы сохранения и количество контрольных точек, посмотрите здесь: https://www.tensorflow.org/api_docs/python/tf/train/Saver

От ссылка выше
-> max_to_keep
-> keep_checkpoint_every_n_hours

Кроме того, дополнительные аргументы для конструктора Saver () позволяют контролировать распространение файлов контрольных точек на диске :

max_to_keep указывает максимальное количество последних файлов контрольных точек для сохранения. По мере создания новых файлов старые файлы удаляются. Если None или 0, никакие контрольные точки не удаляются из файловой системы, а только последняя сохраняется в файле контрольных точек. По умолчанию 5 (то есть 5 самых последних файлов контрольных точек.)

keep_checkpoint_every_n_hours: В дополнение к сохранению самых последних файлов контрольных точек max_to_keep, вы можете захотеть сохранить один файл контрольных точек на каждые N часов обучения , Это может быть полезно, если вы хотите позже проанализировать, как прогрессировала модель во время длительной тренировки. Например, передача keep_checkpoint_every_n_hours = 2 гарантирует, что вы сохраняете один файл контрольных точек на каждые 2 часа обучения. Значение по умолчанию 10000 часов фактически отключает эту функцию.

Я полагаю, что вы можете сослаться на это в конфигурации обучения, если вы ее используете. Оформить заказ файл trainer.py в том же устаревшем каталоге. Вокруг строки 375 он ссылается на keep_checkpoint_every_n_hours ->

# Save checkpoints regularly.
keep_checkpoint_every_n_hours = train_config.keep_checkpoint_every_n_hours
saver = tf.train.Saver(keep_checkpoint_every_n_hours=keep_checkpoint_every_n_hours)

. Он не ссылается на строку max_to_keep, которую, возможно, потребуется добавить в этот скрипт. Тем не менее, в заключение, хотя трудно быть уверенным без всей информации, но я не могу не думать, что вы идете по этому поводу неправильно. Сбор каждого контрольного пункта и проверка не являются правильным способом преодоления трудностей. Запустите тензорную доску и проверьте там результаты своих тренировок. Кроме того, выполнение некоторой оценки с использованием модели с оценочными данными также позволит лучше понять, что делает ваша модель.

Всего наилучшего в ваших тренировках!

0
ответ дан Steve Carter 16 January 2019 в 08:06
поделиться
Другие вопросы по тегам:

Похожие вопросы: