概述
学习Spark之前一定要学习Hadoop?
我看的网上有许多同学问这个问题。
首先我在这里回答下这个问题
不需要。不需要。不需要。
spark和hadoop有关系,但是不是前后需要的关系。但是学了hadoop也没什么坏处,而且对以后的发展也有很大的帮助。
我在这里分享一下我是如何学习spark的吧,首先学习spark必须先学习一门编程语言,像我学习spark时学的scala语言,scala语言是一种基于java语言,它对java语言进行了代码上的简化,但功能不变。这里有一些我学习scala语言时看的视频,同学们可以可以看看,学习spark肯定有帮助。
scala零基础学习
www.bilibili.com/video/BV1Q5411t74z
还有一些学习spark时看的视频。
spark入门到精通
www.bilibili.com/video/BV1Xz4y1m7cv
spark实战项目
www.bilibili.com/video/BV13y4y1k7Bq
最后
以上就是典雅路灯为你收集整理的学习Spark之前一定要学习Hadoop?的全部内容,希望文章能够帮你解决学习Spark之前一定要学习Hadoop?所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复