Hadoop: подключение к ResourceManager не выполнено

После установки hadoop 2.2 и попытки запустить пример труб ive получил следующую ошибку (такая же ошибка появляется после попытки запуска hadoop jar hadoop-mapreduce-examples-2.2.0.jar wordcount someFile.txt /out):

/usr/local/hadoop$ hadoop pipes -Dhadoop.pipes.java.recordreader=true -Dhadoop.pipes.java.recordwriter=true -input someFile.txt -output /out -program bin/wordcount
DEPRECATED: Use of this script to execute mapred command is deprecated.
Instead use the mapred command for it.

13/12/14 20:12:06 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8032
13/12/14 20:12:06 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8032
13/12/14 20:12:07 INFO ipc.Client: Retrying connect to server: 0.0.0.0/0.0.0.0:8032. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
13/12/14 20:12:08 INFO ipc.Client: Retrying connect to server: 0.0.0.0/0.0.0.0:8032. Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
13/12/14 20:12:09 INFO ipc.Client: Retrying connect to server: 0.0.0.0/0.0.0.0:8032. Already tried 2 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
13/12/14 20:12:10 INFO ipc.Client: Retrying connect to server: 0.0.0.0/0.0.0.0:8032. Already tried 3 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
13/12/14 20:12:11 INFO ipc.Client: Retrying connect to server: 0.0.0.0/0.0.0.0:8032. Already tried 4 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
13/12/14 20:12:12 INFO ipc.Client: Retrying connect to server: 0.0.0.0/0.0.0.0:8032. Already tried 5 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
13/12/14 20:12:13 INFO ipc.Client: Retrying connect to server: 0.0.0.0/0.0.0.0:8032. Already tried 6 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
13/12/14 20:12:14 INFO ipc.Client: Retrying connect to server: 0.0.0.0/0.0.0.0:8032. Already tried 7 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)

My yarn-site.xml:

<configuration>
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<!-- Site specific YARN configuration properties -->
</configuration>

ядро-site.xml:

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>

mapred-site.xml:

<configuration>
<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
</property>
</configuration>

HDFS-site.xml:

<configuration>
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
<property>
  <name>dfs.namenode.name.dir</name>
  <value>file:/home/hduser/mydata/hdfs/namenode</value>
</property>
<property>
  <name>dfs.datanode.data.dir</name>
  <value>file:/home/hduser/mydata/hdfs/datanode</value>
</property>
</configuration>

Ive выяснил, что мой IPv6 отключен, как и должно быть. Может быть, мои /etc/hosts неверны?

/и т.д./хостов:

fe00::0         ip6-localnet
ff00::0         ip6-mcastprefix
ff02::1         ip6-allnodes
ff02::2         ip6-allrouters

127.0.0.1 localhost.localdomain localhost hduser
# Auto-generated hostname. Please do not remove this comment.
79.98.30.76 356114.s.dedikuoti.lt  356114
::1             localhost ip6-localhost ip6-loopback

Ответы

Ответ 1

Проблема с подключением менеджера ресурсов была связана с тем, что ive необходимо добавить несколько свойств к файлу пряжи .xml:

<property>
<name>yarn.resourcemanager.address</name>
<value>127.0.0.1:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>127.0.0.1:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>127.0.0.1:8031</value>
</property>

Тем не менее, моя работа не запускается, но соединение успешно выполняется

Ответ 2

Убедитесь, что вы начали пряжу. Используйте эту команду для запуска:

start-yarn.sh

Затем используйте эту команду, чтобы убедиться, что работает диспетчер ресурсов:

JPS

Результат должен выглядеть примерно так:

17542 NameNode

17920 SecondaryNameNode

22064 Jps

17703 DataNode

18226 ResourceManager

18363 NodeManager

Ответ 3

Правильным способом может быть добавление следующих строк в yarn-site.xml:

<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>127.0.0.1</value>
</property>

Поскольку поле значений хост представляет собой единственное имя хоста, которое может быть установлено вместо настройки всех ресурсов yarn.resourcemanager *. Результаты в портах по умолчанию для компонентов ResourceManager.

Apache Hadoop 2.7.1 - Конфигурации для ResourceManager

  • Параметр: yarn.resourcemanager.hostname
  • Значение: узел ResourceManager.
  • Примечания: host Единое имя хоста, которое можно установить вместо настройки всех ресурсов ресурса yarn.resourcemanager *. Результаты в портах по умолчанию для компонентов ResourceManager.

Ответ 4

У меня была та же проблема. Я решил это.

Так как проблема связана с ResourceManager, убедитесь, что работает пряжа или нет. Пряжа разделяется на разные сущности. Один из них - ResourceManager, который отвечает за распределение ресурсов для различных приложений, запущенных в кластере.

Сделайте следующие шаги.

  •  
  • Запустите прямую с помощью команды: start-yarn.sh  
  • Проверяйте диспетчер ресурсов с помощью команды: jps  
  • Добавьте следующий код в конфигурацию
<property>
    <name>yarn.resourcemanager.address</name>
    <value>127.0.0.1:8032</value>
</property>

Ответ 5

Configuration conf = HBaseConfiguration.create();
 conf.set("yarn.resourcemanager.address", "127.0.0.1:8032");

В conf вы можете установить yarn.resourcemanager.address

Ответ 6

Я решил ту же проблему, изменив значение на 127.0.0.1:* в yarn-site.xml

<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
    <name>yarn.resourcemanager.address</name>
    <value>127.0.0.1:8032</value>
     </property>
      <property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>127.0.0.1:8030</value>
     </property>
    <property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>127.0.0.1:8031</value>
     </property>

Ответ 7

Эта проблема может быть вызвана отсутствием HADOOP_CONF_DIR, который необходим приложению MapReduce для подключения к диспетчеру ресурсов, который указан в файле yarn-site.xml. Таким образом, перед запуском задания MapReduce попытайтесь установить/экспортировать HADOOP_CONF_DIR вручную с помощью соответствующей папки Hadoop Conf, например экспорта HADOOP_CONF_DIR =/etc/hadoop/conf. Этот способ работал у меня:)

Ответ 8

Используйте нижеприведенные настройки в /etc/hosts, добавьте свое имя хоста вместо your_host_name:

127.0.0.1   localhost
127.0.0.1   your_host_name