2
ответа

Как активировать запланированное удаление кластера Dataproc с помощью Python API?

Для ручного создания запланированного удаления для кластера Dataproc я могу использовать следующий параметр --max-idle = 30m. Но как активировать удаление по расписанию с помощью Python API? Любые советы, где я должен проверить?
вопрос задан: 2 March 2019 07:26
1
ответ

Как получить качественное задание на использование всех доступных ресурсов в кластере Google Cloud DataProc?

Например, в настоящее время у меня есть кластер DataProc, состоящий из мастера и 4 рабочих, каждая машина имеет 8 виртуальных ЦП и 30 ГБ памяти. Всякий раз, когда я отправляю задание в кластер, кластер передает максимум ...
вопрос задан: 20 March 2019 14:17
1
ответ

Сбой создания Dataproc при обновлении fs.defaltFS с использованием --properties

Я создал dataproc с defaultFS, так как hdfs.that работает нормально. Но всякий раз, когда я пытаюсь обновить fs.defaultFS до 'gs', панель инструментов dataproc показывает ошибку «Невозможно запустить мастер, недостаточно номера ...»
вопрос задан: 22 February 2019 12:10
1
ответ

Не удается создать кластер Dataproc при установке свойства fs.defaultFS?

Это уже было предметом обсуждения в предыдущем посте, однако я не убежден в ответах, так как документы Google указывают, что можно создать кластер с настройкой fs.defaultFS ...
вопрос задан: 19 February 2019 21:39
1
ответ

Как заставить PySpark работать на кластере Google Cloud Dataproc

У меня есть ряд вопросов (извините, документация Google ужасна и не удобна для пользователя): что эквивалентно Amazon EMR в Google Cloud, Dataproc? Я использую эту документацию для запуска Spark ...
вопрос задан: 18 January 2019 11:24
0
ответов

Google Cloud Platform - могу ли я найти причину ответа 403?

Для создания кластеров GCP Dataproc я использую https://dataproc.googleapis.com/v1/projects/ndomprojectId‹/regions/ndomregion‹/clusters, как описано на странице https://cloud.google.com/dataproc/docs/. ссылка / отдых / v1 / ...
вопрос задан: 25 March 2019 08:08