我是靠谱客的博主 典雅路灯,这篇文章主要介绍学习Spark之前一定要学习Hadoop?,现在分享给大家,希望可以做个参考。

学习Spark之前一定要学习Hadoop?

我看的网上有许多同学问这个问题。
首先我在这里回答下这个问题

不需要。不需要。不需要。

spark和hadoop有关系,但是不是前后需要的关系。但是学了hadoop也没什么坏处,而且对以后的发展也有很大的帮助。

我在这里分享一下我是如何学习spark的吧,首先学习spark必须先学习一门编程语言,像我学习spark时学的scala语言,scala语言是一种基于java语言,它对java语言进行了代码上的简化,但功能不变。这里有一些我学习scala语言时看的视频,同学们可以可以看看,学习spark肯定有帮助。
scala零基础学习

www.bilibili.com/video/BV1Q5411t74z

还有一些学习spark时看的视频。
spark入门到精通

www.bilibili.com/video/BV1Xz4y1m7cv

spark实战项目

www.bilibili.com/video/BV13y4y1k7Bq

最后

以上就是典雅路灯最近收集整理的关于学习Spark之前一定要学习Hadoop?的全部内容,更多相关学习Spark之前一定要学习Hadoop内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(138)

评论列表共有 0 条评论

立即
投稿
返回
顶部