I успешно установил и запустил Hadoop на одном компьютере с IP-адресом 192.168.1.109 (на самом деле это экземпляр Ubuntu, работающий на виртуальном компьютере). При вводе jps отображается 2473 DataNode ...
Я провожу небольшое тестирование с помощью nutch и hadoop, и мне нужен большой объем данных.
Я хочу начать с 20 ГБ, перейти к 100 ГБ, 500 ГБ и в конечном итоге достичь 1-2 ТБ. Проблема в том, что у меня этого нет ...
Я хотел бы запланировать и распределить на нескольких машинах - Windows или Ubuntu - (одна задача выполняется только на одной машине) выполнение сценариев R (например, с использованием RServe) . Я не хочу изобретать заново ...
Я установил hadoop и hbase cdh3u2. В hadoop у меня есть файл по пути /home/file.txt. у него есть данные как один, 1
два, 2
three, 3 Я хочу импортировать этот файл в hbase. в этом, первое поле ...
После прочтения http://gbif.blogspot.com/2011/01/setting-up-hadoop-cluster-part-1-manual.html мы хотим поэкспериментировать с mapred.reduce.parallel.copies. В блоге упоминается «очень внимательно смотрю на ...
После прочтения http://gbif.blogspot.com/2011 /01/setting-up-hadoop-cluster-part-1-manual.html мы пришли к выводу, что наш 6-узловой кластер hadoop может нуждаться в некоторой настройке, и io.sort.factor кажется ...
Я пишу программы hadoop, и я действительно не хочу играть с устаревшими классами.
Нигде в Интернете я не могу найти программы с обновленным классом org.apache.hadoop.conf.Configuration ...
Я пытался запустить программу потоковой передачи Ruby Hadoop, которая приведена в «Полном руководстве по Ruby». Я использовал эту команду: hadoop jar /usr/lib/hadoop-0.20/contrib/streaming/hadoop-streaming-0 ....
Это может показаться глупым вопросом, но я не вижу проблемы в своем типы в моем коде mapreduce для hadoop Как указано в вопросе, проблема в том, что он ожидает IntWritable, но я ...
Pig: 0.8.1-cdh3u2
Hadoop: 0.20.2-cdh3u0 Отладка предупреждений FIELD_DISCARDED_TYPE_CONVERSION_FAILED, но я не могу нигде распечатать отдельные предупреждения. Отключение агрегирования с помощью -w или ...
Я новичок в Hadoop. Я хочу получить доступ к аргументу командной строки из главной функции (Java-программы) внутри функции map класса mapper. Пожалуйста, подскажите, как это можно сделать.
Я новичок в Hadoop / Hive и только начал читать документацию. Есть много блогов об установке Hadoop в кластерном режиме. Также я знаю, что Hive работает поверх Hadoop. Мой вопрос: ...
Можно ли добиться распределенного чтения из кластера HDSF с помощью клиента HDFS на одной машине? Я провел эксперимент с кластером, состоящим из 3 узлов данных (DN1, DN2, DN3). Затем я запускаю ...
Я создаю библиотеку, которая включает в себя как Clojure, так и Java-код, и хотел бы иметь возможность запускать один тестовый набор JUnit для всей базы кода. . Кажется, это должно быть возможно, поскольку они ...
Как в Hadoop fs найти размер блока для конкретного файла? Меня в первую очередь интересовала командная строка, что-то вроде: hadoop fs ... hdfs: //fs1.data / ... Но похоже, что это не так ...
Hadoop записывает в SequenceFile в формате пары ключ-значение (записи). Предположим, у нас есть большой неограниченный файл журнала. Hadoop разделит файл по размеру блока и сохранит его на нескольких узлах данных. ...
Я выполняю задачу в псевдораспределенном режиме на своем 4-ядерном ноутбуке. Как я могу убедиться, что все ядра используются эффективно. В настоящее время мой счетчик вакансий показывает, что одновременно выполняется только одно задание. Есть ли ...
Сценарий: Когда я ввожу запрос в Hive CLI, я получаю следующие ошибки: Query: **$ bin/hive -e "insert overwrite table pokes select a.* from invites a where a.ds='2008-08-15'; "** Ошибка ...
Я хочу запустить модульное тестирование, но мне нужен экземпляр org.apache.hadoop.fs.FileSystem. Есть ли какие-либо макеты или другие решения для создания файловой системы?
Я пытаюсь запустить HBase в псевдо-распределенном режиме. Но это не работает после того, как я установил hbase-site.xml. Каждый раз, когда я пытаюсь запустить команду в оболочке hbase, я получаю следующую ошибку: ОШИБКА: org.apache.hadoop ....
Какой смысл кормить кластер Hadoop и использовать этот кластер для подачи данных в хранилище данных Vertica/InfoBright? Все эти вендоры постоянно говорят "мы можем соединиться с Hadoop", но я не ...
У меня есть последовательный файл, который является выходом задания сокращения карты hadoop.
В этом файле записываются данные в парах ключ-значение, а само значение представляет собой карту.
Я хочу прочитать значение как объект MAP, чтобы я ...
Как предоставить ссылку на файл HDFS, чтобы при нажатии на этот URL-адрес загружался файл HDFS. Пожалуйста, предоставьте мне исходные данные .. Спасибо {{1} } MRK
Я пытаюсь запустить задание с высокой памятью в кластере Hadoop (0.20.203). Я изменил mapred-site.xml, чтобы установить некоторые ограничения памяти. mapred.cluster.max.map.memory.mb & ...
У меня есть файл, в котором набор из каждых четырех строк представляет запись. например, первые четыре строки представляют запись 1, следующие четыре - запись 2 и т. д. Как я могу убедиться, что Mapper вводит эти четыре строки ...
Я новичок в PIG, и у меня возникла то, что кажется очень простой проблемой. У меня есть строка кода, которая гласит: A = load 'Sites / trial_clustering / shortdocs / *' AS (word1: chararray, word2: chararray, ...
Я выполняю внешние объединения для отдельных столбцов в Pig, как этот результат = СОЕДИНЕНИЕ A по идентификатору LEFT OUTER, B по идентификатору; Как мне объединить два столбца, например - WHERE A.id = B.id И A.name = B.name Что такое свинья ...
В чем разница между установкой mapred.job.map.memory.mb и mapred.child.java.opts с использованием -Xmx для управления максимальным объемом памяти, используемым задачами Mapper и Reduce? Какой из них имеет приоритет?