我是靠谱客的博主 典雅路灯,最近开发中收集的这篇文章主要介绍学习Spark之前一定要学习Hadoop?,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

学习Spark之前一定要学习Hadoop?

我看的网上有许多同学问这个问题。
首先我在这里回答下这个问题

不需要。不需要。不需要。

spark和hadoop有关系,但是不是前后需要的关系。但是学了hadoop也没什么坏处,而且对以后的发展也有很大的帮助。

我在这里分享一下我是如何学习spark的吧,首先学习spark必须先学习一门编程语言,像我学习spark时学的scala语言,scala语言是一种基于java语言,它对java语言进行了代码上的简化,但功能不变。这里有一些我学习scala语言时看的视频,同学们可以可以看看,学习spark肯定有帮助。
scala零基础学习

www.bilibili.com/video/BV1Q5411t74z

还有一些学习spark时看的视频。
spark入门到精通

www.bilibili.com/video/BV1Xz4y1m7cv

spark实战项目

www.bilibili.com/video/BV13y4y1k7Bq

最后

以上就是典雅路灯为你收集整理的学习Spark之前一定要学习Hadoop?的全部内容,希望文章能够帮你解决学习Spark之前一定要学习Hadoop?所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(50)

评论列表共有 0 条评论

立即
投稿
返回
顶部