Я новичок в Hadoop/ZooKeeper. Я не могу понять цель использования ZooKeeper с Hadoop, записывает ли ZooKeeper данные в Hadoop? Если нет, то почему мы используем ZooKeeper с Hadoop?
Мы работаем над проектом, который должен собирать данные журнала и аудита и хранить их в хранилище данных для целей архивирования и некоторых представлений. Мы не совсем уверены, какое хранилище данных подойдет нам. мы ...
В mapreduce каждая задача сокращения записывает свой вывод в файл с именем part-r-nnnnn, где nnnnn - это идентификатор раздела, связанный с задачей сокращения. Объединяет ли map / reduce эти файлы? Если да, то как?
Я новичок в распределенной файловой системе Hadoop, я выполнил полную установку одного узла Hadoop на своем компьютере. Но после этого, когда я собираюсь загрузить данные в hdfs, он выдает сообщение об ошибке...
Недавно я обнаружил много вариантов, и их сравнение интересно в первую очередь по степени зрелости и стабильности. Crunch - https : //github.com/cloudera/crunch
Scrunch - https: //github.com/cloudera/crunch/tree / ...
Для создания заданий MapReduce вы можете использовать либо старый пакет org.apache.hadoop.mapred, либо новый пакет org.apache.hadoop. пакет mapreduce для картографов и редукторов, заданий ... Первый был отмечен ...
Я пытаюсь запустить пример кратчайших путей из инкубатора giraph (https://cwiki.apache.org/confluence/display/GIRAPH/Shortest+Paths+Example). Однако вместо выполнения примера из ...
Я не могу читать из HDFS (дистрибутив Intel hadoop, версия Hadoop 1.0.3) из spark-shell (spark версия 1.2.1). Я собрал spark, используя команду mvn -Dhadoop.version = 1.0.3 clean package, ...
Я хочу реализовать Apache Hive, и я хочу загрузить данные из CSV-файла в таблицу Hive. Итак, вот проблема: мой CSV-файл, сгенерированный SQL Server в своей структуре, имеет знак ", и он стал ...
У меня есть набор данных с полями дата, время, магазин, товар, стоимость, оплата. Я хочу узнать общие продажи / товар и наибольшую продажу / магазин. Возможно ли иметь как ключи, так и значения в одном маппере ...
Я пишу программу, которая обрабатывает результаты редуктора перед выводом некоторого результата, например, вывод обработки Mapper Reducer. Невозможно интегрировать часть обработки в редуктор ...
Я пытаюсь выполнить рабочий процесс свиньи. Но рабочий процесс зависает в рабочем состоянии, я проверил файл журнала, я нашел этот файл журнала от менеджера узлов: 2015-02-25 17: 50: 06,322 [JobControl] INFO ...
У меня есть сценарий использования, в котором у нас есть большой объем данных, по которым необходимо выполнить аналитику. Данные будут непрерывно выбираться и анализироваться для выполнения во время выполнения. Для этого варианта использования ...
Я новичок в экосистеме Hadoop и пытаюсь понять, как работает кластер. До сих пор я использовал дистрибутив Hortonworks для тестирования чего-либо в режиме с одним узлом. Теперь мне интересно - если это ...
Привет, я бегу упражнение на подсчет слов в Spark Java. Когда я выполняю в hdfs, я получаю подобное исключение в потоке "main" java.lang.IllegalArgumentException: / home / karun не может быть каталогом. в ...
Я компилировал HIPI-фреймворк, используя ant на Hadoop 2.6.0 в Ubuntu 14.04, и получил эту ошибку: Buildfile: /home/jinjunho/hipi/src/build.xml setup: test_settings: all: [javac] Компиляция 23 исходников ...
Я пытаюсь использовать PigUnit с Hadoop 2.4.1. У меня есть очень простой сценарий Pig, который я хочу выполнить внутри PigTest, но когда я запускаю этот тест, я получаю следующее исключение: java.lang ....
Я следовал руководству на michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/, чтобы настроить мой многоузловой кластер hadoop. единственная разница в том, что мое имя пользователя на одном ...
анализ безработицы через социальные медиа в концепции больших данных. В моем приложении мне нужно получить информацию о человеке из Facebook. Как и статус конкретного человека и его степень, учеба ...
Я новичок в hadoop и нахожусь в стадии обучения.
Согласно руководству Hadoop Definitve, я настроил свой hadoop в псевдораспределенном режиме, и все работало нормально. Я даже смог выполнить все ...
Я запускаю hadoop на одной-машине, только локальная-настройка, и я ищу хороший, безболезненный способ отладки картографов и редукторов в eclipse. Eclipse без проблем запускает задачи mapreduce. Однако,...
Если я наберу http://localhost:50070 или http://localhost:9000, чтобы увидеть узлы, мой браузер мне ничего не показывает, я думаю, что он не может подключиться к серверу.
Я протестировал свой hadoop с помощью этой команды: hadoop jar ...
Я хочу получить доступ к hdfs с полностью определенными именами, такими как: hadoop fs -ls hdfs: // machine-name: 8020 / user. Я также могу просто получить доступ к hdfs с помощью hadoop fs -ls / user. Однако я пишу тестовые примеры ...
У меня есть задание mapreduce:
мой код Класс карты: общедоступный статический класс MapClass расширяет Mapper {@Override public void map (текстовый ключ, текстовое значение, контекст контекста) ...
В книге Hadoop сказано, что мы можем указать размер блока для каждого файла во время создания файла. «Самый естественный способ увеличить размер разделения - это иметь большие блоки в HDFS, установив dfs ....
У меня есть задание Map-Reduce с картографом, который берет запись и преобразует ее в объект, экземпляр MyObject, который маршалируется в JSON с помощью Jackson. Значение - это просто другое текстовое поле в ...
У меня есть Java-программа map-reduce, в которой я пытаюсь сжимать только вывод mapper, но не вывод reducer. Я думал, что это будет возможно, установив следующие свойства в ...
, я играл с Mahout и обнаружил, что FileDataModel принимает данные в формате userId, itemId, pref (long, long, Double). У меня есть данные в формате String, long, double ...
продолжает отображаться устаревшая ошибка Я установил hadoop -2.0.0 -alpha, но всякий раз, когда я выполняю команду, она выдает мне устаревшие ошибки (, хотя кажется, что она работает без проблем )$ hadoop/bin/hadoop dfs -copyFromLocal ввод...