服务器
1
2
3
ip: 192.168.2.106
usr: zl
password: 123456
hadoop 伪集群模式安装
版本选择
最新版是 3.3 版本,但是考虑到各个组件的兼容性问题 选择2.10 版本的hadoop
安装
- 根据附录下载 相关文件
- 解压
1
tar -zxvf hadoop-2.10.0.tar.gz
- 配置 hadoop 相关命令到系统path 中
1 2 3
echo "export HADOOP_HOME=/home/zl/hadoop-2.10.0" >> ~/.bashrc && echo "PATH=\$HADOOP_HOME/bin:\$HADOOP_HOME/sbin:\$PATH" >> ~/.bashrc && source ~/.bashrc
配置 JAVA_HOME 环境变量 命令 略
- 测试一下命令,验证安装是否正常
1
hadoop
配置 hdfs 伪集群模式
- ${HADOOP_HOME}/etc/hadoop/core-site.xml 中添加:
1 2 3 4 5 6
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
- ${HADOOP_HOME}/etc/hadoop/hdfs-site.xml:
1 2 3 4 5 6 7 8 9 10 11 12 13 14
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name> dfs.namenode.name.dir</name> <value>/home/zl/hadoop-data/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/zl/hadoop-data/datanode</value> <property> </configuration>
- 配置 ssh
1 2 3
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa && cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys && chmod 0600 ~/.ssh/authorized_keys
启动hdfs
- 执行 格式化 hdfs
1
bin/hdfs namenode -format
- 启动
1
sbin/start-dfs.sh
- 关闭
1
sbin/stop-dfs.sh
root 用户启动需要设置 环境变量
1
2
3
4
5
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
配置 yarn 伪集群模式
- ${HADOOP_HOME}/etc/hadoop/mapred-site.xml 中添加
1 2 3 4 5 6
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
- ${HADOOP_HOME}/etc/hadoop/yarn-site.xml 中添加
1 2 3 4 5 6
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
- 启动
1
start-yarn.sh
- 关闭
1
stop-yarn.sh
web 页面: http://localhost:8088/
web 端口
组件 | 配置 | 默认值 |
---|---|---|
NameNode | http://nn_host:port/ | Default HTTP port is 50070. |
ResourceManager | http://rm_host:port/ | Default HTTP port is 8088. |
MapReduce | JobHistory Server | http://jhs_host:port/ Default HTTP port is 19888. |
Hbase 安装 (Pseudo-distributed)
版本选择
最新版 2.3.0
安装
- 解压
1
tar -zxvf hbase-2.3.0-bin.tar.gz
- 配置 java_home 略
- 配置 PATH
1 2 3
echo "export HBASE_HOME=/home/zl/hbase-2.3.0" >> ~/.bashrc && echo "PATH=\$HBASE_HOME/bin:\$PATH" >> ~/.bashrc && source ~/.bashrc
配置 hbase 伪集群
- conf/hbase-site.xml 中添加
1 2 3 4 5 6 7 8 9 10
<configuration> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.rootdir</name> <value>hdfs://localhost:9000/hbase</value> </property> </configuration>
启动 hbase bin/start-hbase.sh
- web 页面访问 http://localhost:16010
sqoop 导入相关依赖
用 sqoop 导入 包 版本 依赖
- hadoop 2.x
- hbase 2.x
- hbase-client 1.12.x
- metrics-core 2.2.0
jar 包 放到 sqoop lib 中
参考 链接
- https://www.cnblogs.com/jdbc-mydql/p/8489961.html