代码拉取完成,页面将自动刷新
同步操作将从 supermy/hadoop-docker-nn 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
2015-04-08
todo:增加dns启动镜像版本:域名到dns解析
todo:探索最佳的数据加载方式
2015-04-06
镜像名称规范化;
lzo配置优化;
snappy+spark安装包引入;
镜像包的集成关系优化。
优化测试完成。
2015-03-13
hive-hbase整合 ok
hive 脚本数据初始化示例 ok。
hbase 脚本数据初始化示例 ok。
初始化环境:docker-enter 进入 hregionserver容器:cd /home/jamesmo/ && start pre-start-hive.sh
2015-03-30
hbse集群ok
>fig up -d
>boot2docker ssh
>docker ps
>docker-enter 123412341234
>hbase shell
>version
>status
https://issues.apache.org/jira/browse/HADOOP-10558
节点在zookeeper注册的是主机名,调试的时候要把host文件加上节点信息例如 192.168.159.2 master master
设定docker容器的hostname
**约定名称与变量替换混用**
**最终,约定名称使用;link不支持循环调用**
2015-03-05
hbase的集群配置进行中;
web测试:http://192.168.2.100:60010/master.jsp
/etc/init.d/hbase-master start
hbase shell
>status
>version
重新build image;
web访问ok
http://192.168.59.103:50070/
http://192.168.59.103:60010/
http://192.168.59.103:60030/
2015-02-16
hadoop启动时候core-site.xml进行了处理;
完成了hadoop的集群处理;
hbase的集群配置中;
测试说明:
2.1使用fig up -d 启动集群
2.2安装容器工具,进入namenode容器
docker run -v /usr/local/bin:/target jpetazzo/nsenter:latest
docker ps -a|grep namenode
docker-enter b58bc02af904
2.3运行指令
su hdfs
hdfs dfs -mkdir -p hdfs://172.17.1.36:8020/user/hdfs/input
hdfs dfs -put core-site.xml hdfs://172.17.1.36:8020/user/hdfs/input
hdfs dfs -ls hdfs://172.17.1.36:8020/user/hdfs/input
hadoop jar /usr/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar grep input output 'dfs[a-z.]+'
nc -v -z -w2 172.17.1.36 8020
nc -v -z -w2 hdfsnamenoderpc.kubernetes.local 8020
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。