平淡香烟

文章
9
资源
1
加入时间
3年0月9天

HIVE-on-Spark

hive底层是通过MR进行计算,将其改变为SparkCore来执行配置步骤1.在不是高可用集群的前提下,只需要将Hadoop安装目录中的core-site.xml拷贝到spark的配置conf文件目录下即可2.将hive安装路径下的hive-site.xml拷贝到spark的配置conf配置文件目录下即可注意:若是高可用:需要将hadoop安装路径下的core-site,xml和hdf...