我是靠谱客的博主 阔达豆芽,最近开发中收集的这篇文章主要介绍cdh6.2的存储和计算分离,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

cdh6.2中提供了一种新类型的集群,称计算集群。计算集群运行Impala,Spark,Yarn等计算服务,但可以配置这些服务以访问托管在另一个CDH集群中的数据。使用此架构,可以通过各种方式分离计算和存储资源。

以下是两种存储分离方式

  • 两套cdh测试环境

cm和cdh版本6.2.0

redhat7.4

  • 第一种方式

集群A的存储更换到集群B上

1、hdfs配置

core-site.xml的集群范围高级配置代码段(安全阀)中新增fs.defaultFS,参数为hdfs://B集群ip:8020/

2、hive配置

如果不想使用B集群默认的hive仓库目录/user/hive/warehouse/目录,可以在B集群创建个目录,将hive仓库目录指定到新建目录上

如果想变更原表路径,可参考我的另一篇文章《cdh-hdfs变更nameservice后一系列hive问题》

https://blog.csdn.net/u013176920/article/details/88977412

3、hbase配置

在hbase-site.xml的Hbase服务高级配置代码段(安全阀)中新增hbase.rootdir,值为
hdfs://B集群ip:8020/hbase,并勾选final选项,将HBase的数据路径设置到存储侧。

在A集群的任意一个节点输入如下命令:
hbase zkcli 
#进入zk缓存
rmr /hbase
#清理hbase缓存目录
quit 
#退出

4、spark配置

将A集群的HDFS上的/user/spark/applicationHistory目录(spark.eventLog.dir默认值)完整复制到B集群,并将权限和用户设置和A集群上/user/spark/applicationHistory目录一致。
在A集群的任意一个节点输入如下命令:
#将A集群applicationHistory目录拷贝到本地tmp目录
hdfs dfs -get hdfs://A集群ip:8020/user/spark/applicationHistory  /tmp

#在B集群上创建A集群applicationHistory目录
hdfs dfs -mkdir -p hdfs://B集群ip:8020/user/spark

#将A集群applicationHistory目录完整拷贝到B集群根目录
hdfs dfs -put /tmp/applicationHistory hdfs://B集群ip:8020/user/spark

#设置applicationHistory目录
hdfs dfs -chown -R spark hdfs://B集群ip:8020/user/spark/applicationHistory 
 

5、重启A集群,重新部署客户端

6、验证hdfs 、yarn、hive、hbase等等组件均正常

总结:此种方法可以更换存储到任何一个hdfs集群上,不限于cdh集群,华为HD集群测试也是没问题的。

  • 第二种方法

cdh集群A,底层存储更换对接华为OceanStor Pacific对象存储

对接配置同上,重启验证。

总结:此方法在测试环境使用一段时间后,上线正式环境。

最后

以上就是阔达豆芽为你收集整理的cdh6.2的存储和计算分离的全部内容,希望文章能够帮你解决cdh6.2的存储和计算分离所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(47)

评论列表共有 0 条评论

立即
投稿
返回
顶部