Я пытаюсь создать таблицу, как показано ниже. CREATE TABLE r_test (foo INT, bar STRING, адрес STRUCT & lt; street: STRING, город: STRING, состояние: STRING, zip: INT & gt;) ROW FORMAT SERDE 'org.apache.hadoop.hive ....
Мне нужно загружать много файлов в таблицы с помощью pySpark. Существует несколько разных json-файлов, содержащих данные и отдельные файлы, в которых определены схемы данных файлов. При загрузке файлов без ...
У меня есть прямая таблица hive, когда я вставляю в эту таблицу, я получаю следующую ошибку. Выполняется команда kill, а число маркеров и редукторов - 0. Обновление, которое я использовал ...
Env: hive 2.1.1, указывающий на таблицы на S3 Spark 2.3.0 (автономный режим) Hadoop 2.8.3 без hdfs Используя beeline для запроса sparksql (порт 10015, который был открыт службой бережливости), выберите * на таблицах с ...
предположите, что у меня есть эта таблица RDBM (Entity-attribute-value_model): col1: entityID col2: attributeName col3: значение и я хотим использовать HBase из-за масштабирования проблем. Я знаю что единственный способ получить доступ...
Я экспериментировал с Hive для некоторых операций анализа данных и хотел бы сделать его легко доступным ориентируемым коллегам меньшей командной строки. Hive действительно теперь поставлется с веб-интерфейсом (http:/...
В прошлом я раньше создавал WebAnalytics с помощью работы кубов OLAP MySQL. Теперь куб OLAP путем, я использовал его, является просто большой таблицей (хорошо, это было сохранено немного более умное, чем это), где каждая строка...
I am looking for a in-built String split function in Hive? e.g. if String is: A|B|C|D|E Then I want to have a function like: array split(string input, char delimiter) So that I get ...
Я создал внешнюю таблицу на EMR для поиска данных на DynamoDB через Hive. Поскольку в таблице DDB есть поле карты, я сопоставил это поле как карту, что привело к отображению всех записей в формате JSON ...
Текущий сценарий => У нас есть запрос, который мы выполняем на нашем кластере продуктов. этот запрос выбирает только 3 поля из объединения между 1 таблицей и (вложенным способом объединения) другой огромной таблицы, а затем ...
Как мне получить строку в формате дд-ммм-гг, например. "26-Фев-19", в отметку времени в улье? Приведение не работает, так как принимает только формат гггг-мм-дд
Я собираюсь создать внешнюю таблицу в Hive, используя приведенный ниже код: CREATE EXTERNAL TABLE product (productID int, строка кода, строка имени, количество int, плавающая цена) STORED AS orc LOCATION "пользователь / ...
Я новичок в Улей. Я узнал, что пользовательская функция может быть создана с любой сигнатурой метода методаvalu (). (За исключением типа возврата void). Мне любопытно узнать, как UDFMethodResolver разрешает ...
Как мне периодически выполнять неблокирующий запрос MSCK REPAIR TABLE database.table? Поддерживает ли Spark Streaming это изначально или я должен полагаться на модуль потоков Python? У меня есть ...
http://gethue.com/drag-drop-saved-hive-queries-into-your-workflows/#comment-78368 Разве это не работает в текущей версии? например, Hue4.3 и т. д. Имя параметра при отправке рабочего процесса равно 'zip'. Это не '...
У меня есть требование в моем текущем проекте. у нас есть столбец в файле hdfs "ASCII_FIXED_STR", когда я получаю через Impala с использованием запроса ниже, я не получаю правильный вывод SQL без
Я установил сервер ambari для запуска hadoop и hive. Теперь я загрузил таблицы кустов из CSV-файла. Я хочу загрузить данные из улья в базу данных postgres. Postgres db действует как промежуточная база данных. Правильно ...
У меня есть таблица, которая обновляется еженедельно, мне нужно проверить проверку изменения количества между недельной и предыдущей неделями. Я только что сделал ниже .... Выберите случай, когда F.wk_end_d = max (F.wk_end_d) более (...
Я выполняю запрос, подобный select < column > от < mytable > где < partition_key > = < значение > предел 10, и это займет навсегда, чтобы выполнить. Я посмотрел на физический план, и я ...
У меня есть стол в Улье. Я должен преобразовать имена столбцов в строки. У меня есть следующая таблица: + --------- + --------- + --------- + | Таблица 1 | Таблица 2 | Таблица 3 | + --------- + --------- + ----...
Я пытаюсь подключить куст с помощью hive-jdbc и spark local в двух интерфейсах. Но интерфейс jdbc получает ошибку через 1,2 дня: аутентификация с помощью kerberos вначале прошла успешно, и я могу использовать оба ...
Я пытаюсь настроить кластер с одним узлом, на котором работает Impala на Kudu, а HiveMetaStore управляется PostgreSQL. Соединение с базой данных завершается неудачно с "java.net.SocketTimeoutException: Читать ...
Мы создали планировщик, который извлекает данные с сервера sql в помещении и помещает их в HDFS. Теперь проблема в том, что нам нужно проверить, правильно ли переданы данные и соответствуют ли они ...
Я пытаюсь импортировать таблицы в куст с помощью sqoop, но при импорте таблицы отображается сообщение об ошибке, отсутствует выражение. Как ее решить, пожалуйста, помогите мне
Создание базового хранилища данных с hive2, установленным через Ambari 2.7.3.0 (hortonworks DP). Услуги, которые я выбираю: HDFS, YARN + MapReduce2, Tez, Hive, Pig, Sqoop, Oozie, Zookeeper, Ambari ...
У меня есть запрос улья, где он объединяется с 4 таблицами. Все таблицы разбиты по дате и объединены в соответствующие ключевые столбцы. Таблица A (Основная таблица) - разделена по дате и сгруппирована по C1, C2, C3, C4 ...
По сути, это вопрос дизайна, который у меня есть. Ищете наиболее эффективный способ выполнить это. Вот сценарий .... У нас есть три части данных. Это: DATASET 1 (HDFS) (первичный ключ: ...
В некоторых запросах или комбинациях запросов (несколько шагов) я заметил, что сначала у меня много заданий отображения (так как данные находятся во многих разделах), а затем постепенно уменьшается, например, шаг 1 ...
Я подключаюсь к Hive Metastore с аутентификацией Kerberos. Я попробовал несколько конфигураций, и мое текущее исключение - это. java.lang.IllegalArgumentException: java.net.UnknownHostException: & ...
Я пытаюсь загрузить один CSV-файл в таблицу HBase. Я могу успешно сбросить данные из CSV, но при импорте в таблицу я получаю сообщение об ошибке. Но, при загрузке других данных, я могу загрузить любой ...