首页 Hadoop standalone 安装笔记
文章
取消

Hadoop standalone 安装笔记

服务器

1
2
3
ip: 192.168.2.106
usr: zl
password: 123456

hadoop 伪集群模式安装

版本选择

最新版是 3.3 版本,但是考虑到各个组件的兼容性问题 选择2.10 版本的hadoop

安装

  1. 根据附录下载 相关文件
  2. 解压
    1
    
     tar -zxvf hadoop-2.10.0.tar.gz
    
  3. 配置 hadoop 相关命令到系统path 中
    1
    2
    3
    
    echo "export HADOOP_HOME=/home/zl/hadoop-2.10.0" >> ~/.bashrc &&
    echo "PATH=\$HADOOP_HOME/bin:\$HADOOP_HOME/sbin:\$PATH" >> ~/.bashrc &&
    source ~/.bashrc
    
  4. 配置 JAVA_HOME 环境变量 命令 略

  5. 测试一下命令,验证安装是否正常
    1
    
    hadoop
    

    配置 hdfs 伪集群模式

  6. ${HADOOP_HOME}/etc/hadoop/core-site.xml 中添加:
    1
    2
    3
    4
    5
    6
    
     <configuration>
       <property>
           <name>fs.defaultFS</name>
           <value>hdfs://localhost:9000</value>
       </property>
     </configuration>
    
  7. ${HADOOP_HOME}/etc/hadoop/hdfs-site.xml:
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    
     <configuration>
     <property>
               <name>dfs.replication</name>
               <value>1</value>
           </property>
       <property>
             <name> dfs.namenode.name.dir</name>
           <value>/home/zl/hadoop-data/namenode</value>
     </property>
     <property>
     <name>dfs.datanode.data.dir</name>
     <value>/home/zl/hadoop-data/datanode</value>
     <property>
     </configuration>
    
  8. 配置 ssh
    1
    2
    3
    
     ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa &&
     cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys  &&
     chmod 0600 ~/.ssh/authorized_keys
    

    启动hdfs

  9. 执行 格式化 hdfs
    1
    
     bin/hdfs namenode -format
    
  10. 启动
    1
    
    sbin/start-dfs.sh
    
  11. 关闭
    1
    
    sbin/stop-dfs.sh
    

root 用户启动需要设置 环境变量

1
2
3
4
5
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root

配置 yarn 伪集群模式

  1. ${HADOOP_HOME}/etc/hadoop/mapred-site.xml 中添加
    1
    2
    3
    4
    5
    6
    
    <configuration>
     <property>
         <name>mapreduce.framework.name</name>
         <value>yarn</value>
     </property>
     </configuration>
    
  2. ${HADOOP_HOME}/etc/hadoop/yarn-site.xml 中添加
    1
    2
    3
    4
    5
    6
    
     <configuration>
     <property>
         <name>yarn.nodemanager.aux-services</name>
         <value>mapreduce_shuffle</value>
     </property>
     </configuration>
    
  3. 启动
    1
    
    start-yarn.sh
    
  4. 关闭
    1
    
    stop-yarn.sh
    

    web 页面: http://localhost:8088/

web 端口

组件配置默认值
NameNodehttp://nn_host:port/Default HTTP port is 50070.
ResourceManagerhttp://rm_host:port/Default HTTP port is 8088.
MapReduceJobHistory Serverhttp://jhs_host:port/ Default HTTP port is 19888.

Hbase 安装 (Pseudo-distributed)

版本选择

最新版 2.3.0

安装

  1. 解压
    1
    
    tar -zxvf hbase-2.3.0-bin.tar.gz
    
  2. 配置 java_home 略
  3. 配置 PATH
    1
    2
    3
    
    echo "export HBASE_HOME=/home/zl/hbase-2.3.0" >> ~/.bashrc &&
    echo "PATH=\$HBASE_HOME/bin:\$PATH" >> ~/.bashrc &&
    source ~/.bashrc
    

配置 hbase 伪集群

  1. conf/hbase-site.xml 中添加
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    
       <configuration>
       <property>
       <name>hbase.cluster.distributed</name>
       <value>true</value>
       </property>
       <property>
       <name>hbase.rootdir</name>
       <value>hdfs://localhost:9000/hbase</value>
       </property>
       </configuration>
    
  2. 启动 hbase bin/start-hbase.sh

  3. web 页面访问 http://localhost:16010

sqoop 导入相关依赖

用 sqoop 导入 包 版本 依赖

  1. hadoop 2.x
  2. hbase 2.x
  3. hbase-client 1.12.x
  4. metrics-core 2.2.0

jar 包 放到 sqoop lib 中

参考 链接

  1. https://www.cnblogs.com/jdbc-mydql/p/8489961.html

附:相关链接

  1. hadoop-doc

  2. hadoop 2.10 安装包

  3. Hbase 2.2.5 安装包

本文由作者按照 CC BY 4.0 进行授权

Optimizing Kafka consumers (kafka consumers(消费者)调优)(翻译)

HUE 简单部署