Транзакции на уровне строк в улье

[\w]{8}(-[\w]{4}){3}-[\w]{12} работал для меня в большинстве случаев.

Или если вы хотите быть действительно конкретным [\w]{8}-[\w]{4}-[\w]{4}-[\w]{4}-[\w]{12}.

0
задан mohan111 4 March 2019 в 12:33
поделиться

1 ответ

Из документации Hive

hive.support.concurrency

Поддерживает ли Hive параллелизм или нет. Экземпляр ZooKeeper должен быть запущен и работать для того, чтобы менеджер блокировок Hive по умолчанию поддерживал блокировки чтения-записи.

Установите значение true, чтобы поддерживать транзакции INSERT ... VALUES, UPDATE и DELETE (Hive 0.14.0 и более поздние версии). Полный список параметров, необходимых для включения транзакций Hive

 hive.enforce.bucketing

Включена ли принудительная выборка. Если это правда, то при вставке в таблицу применяется принудительное группирование.

hive.exec.dynamic.partition.mode

В строгом режиме пользователь должен указать хотя бы один статический раздел на случай, если пользователь случайно перезаписывает все разделы. В нестрогом режиме все разделы могут быть динамическими.

hive.txn.manager

Установите это значение в org.apache.hadoop.hive.ql.lockmgr.DbTxnManager как часть включения транзакций Hive. DummyTxnManager по умолчанию реплицирует поведение до Hive-0.13 и не предоставляет транзакций.

hive.compactor.initiator.on

Нужно ли запускать потоки инициатора и очистителя в этом экземпляре метасторского хранилища. Установите для этого параметра значение true в одном экземпляре метастазовой службы Thrift в рамках включения транзакций Hive. Полный список параметров, необходимых для включения транзакций, см. В hive.txn.manager.

Крайне важно, чтобы это было включено только для одного экземпляра службы метастазов (пока не применяется).

hive.compactor.worker.threads

Сколько рабочих потоков уплотнителя нужно запустить в этом экземпляре метасторского хранилища. Задайте для этого параметра положительное число в одном или нескольких экземплярах метасторской службы Thrift в рамках включения транзакций Hive. Полный список параметров, необходимых для включения транзакций, см. В hive.txn.manager.

Рабочие потоки порождают задания MapReduce для выполнения уплотнений. Они не делают уплотнения сами. Увеличение количества рабочих потоков сократит время, необходимое для сжатия таблиц или разделов, когда они решат, что им нужно сжатие. Это также увеличит фоновую нагрузку на кластер Hadoop, поскольку в фоновом режиме будет выполняться больше заданий MapReduce.

0
ответ дан hlagos 4 March 2019 в 12:33
поделиться
Другие вопросы по тегам:

Похожие вопросы: