spark多数据源hive和mysql联合使用
1、需要将mysql驱动放入spark的jars包下面spark-2.6.0-bin-2.6.0-cdh5.16.2/jars/2、准备数据2.1、mysql库2.2、准备hive数据3、编写代码public class MoreDatabasesSpark { public static void main(String[] args) { SparkSession session = SparkSession.builder().appName("SparkSe