O Apache Hadoop é um framework open-source escalável para processamento de grandes conjuntos de dados. Atualmente está na versão 2.2.0. Nós iremos abordar nesse tutorial como configurar um único nó, para versão clusterizada utilizar esse link.
Faça o download e descompacte em algum diretório. Exporte as variáveis HADOOP_INSTALL, HADOOP_HOME, HADOOP_COMMON_HOME, HADOOP_HDFS_HOME, HADOOP_MAPRED_HOME, HADOOP_YARN_HOME e atualize o PATH (Altere o HADOOP_INSTALL para o local de instalação na sua máquina):
export HADOOP_INSTALL=/development/db/hbase/hadoop-2.2.0 export HADOOP_HOME=$HADOOP_INSTALL/share/hadoop export HADOOP_COMMON_HOME=$HADOOP_HOME/common export HADOOP_HDFS_HOME=$HADOOP_HOME/hdfs export HADOOP_MAPRED_HOME=$HADOOP_HOME/mapreduce export HADOOP_YARN_HOME=$HADOOP_HOME/yarn export PATH=$HADOOP_INSTALL/bin:$PATH
dsa