19
1.3.12 Запуск Hadoop
Когда все настройки прописаны, то на главном узле можно запустить наш
кластер.
/usr/local/hadoop/sbin/start-dfs.sh
/usr/local/hadoop/sbin/start-yarn.sh
На slave-узле должны запуститься следующие процессы:
hduser@slave1:/usr/local/hadoop$ jps
1748 Jps
1664 NodeManager
1448 DataNode
Теперь у нас есть свой мини-кластер. Посмотреть состояние нод кластера
можно по адресу http://
master:8088/cluster/nodes.
Давайте запустим задачу Word Count. Для
этого нам потребуется
загрузить в HDFS несколько текстовых файлов. Для примера, возьмём книги в
формате txt с сайта Free ebooks — Project Gutenberg.
cd /home/hduser
mkdir
books
cd books
wget http://www.gutenberg.org/files/20417/20417.txt
wget http://www.gutenberg.org/files/5000/5000-8.txt
wget http://www.gutenberg.org/files/4300/4300-0.txt
wget http://www.gutenberg.org/files/972/972.txt
Перенесем наши файлы в HDFS:
cd /usr/local/hadoop
bin/hdfs dfs -mkdir /in
bin/hdfs dfs -copyFromLocal /home/hduser/books/* /in
bin/hdfs dfs -ls /in
Запустим Word Count:
/usr/local/hadoop/bin/hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoo
p-mapreduce-examples-2.7.4.jar wordcount /in /out
Отслеживать работу можно через консоль, а можно через веб-интерфейс
ResourceManager'а по адресу http://
master:8088/cluster/apps/.
По завершению работы, результат будет располагаться в папке /out в
HDFS.
Для того, чтобы скачать его на локальную файловую систему выполним:
/usr/local/hadoop/bin/hdfs dfs -copyToLocal /out /home/hduser/
Теперь в директории /home/hduser/out можно
увидеть результаты
выполнения задачи.
Достарыңызбен бөлісу: