繁荣西牛

文章
4
资源
0
加入时间
2年10月21天

Spark操作hdfs

Windows平台spark连接hadoop集群,并读取hdfs数据开发工具:idea数据hdfs://hdfs://192.168.10:9000/word/在idea运行地方,选择RUN-->Edit-->program arguments:添加hdfs目录地址,即可运行。此例子适合调试使用,实际生产环境中最终将程序打包,部署到服务器中通过spark命令进行运行。pac