我是靠谱客的博主 受伤草莓,最近开发中收集的这篇文章主要介绍【大数据技术】实验4:熟悉Spark基础编程一、实验环境二、实验内容出现的问题,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

文章目录

  • 一、实验环境
  • 二、实验内容
    • 安装Spark环境
    • Spark编程练习:
    • 使用scala语言编写独立应用程序:
  • 出现的问题


一、实验环境

  1. 操作系统:Linux(与实验1保持一致);
  2. Hadoop版本:3.3.1;
  3. Spark版本:3.1.2

二、实验内容

安装Spark环境

  1. 完成Spark安装,根据实验1所安装的Hadoop模式,选择Spark的配置模式;
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述在这里插入图片描述
    2.将Spark的配置文件详细清单列出;给出进程运行截图和网页总览页面截图
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

Spark编程练习:

(1)在Spark-shell中读取本地文件“/home/hadoop/test.txt”,统计文件行数
在这里插入图片描述
(2)在Spark-shell中读取HDFS系统文件“/user/hadoop/test.txt”(该文件不存在,请先创建),统计文件行数
在这里插入图片描述
(3)使用scala语言编写独立应用程序,读取HDFS系统文件“/user/hadoop/test.txt”,统计文件行数;通过使用sbt工具将整个应用程序打包成jar包,并将jar包通过spark-submit提交到spark中运行。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

使用scala语言编写独立应用程序:

(1)对于两个输入文件A和B,编写Spark独立程序,对两个文件进行合并,并剔除其中重复的内容,得到一个新文件C。下面是输入文件和输出文件的样例:
输入文件A的样例如下:
20170101 x
20170102 y
20170103 x
20170104 y
20170105 z
20170106 z
输入文件B的样例如下:
20170101 y
20170102 y
20170103 x
20170104 z
20170105 y
根据输入的文件A和B合并得到的输出文件C的样例如下:
20170101 x
20170101 y
20170102 y
20170103 x
20170104 y
20170104 z
20170105 y
20170105 z
20170106 z
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
(2)每个输入文件表示班级学生某个学科的成绩,每行内容由两个字段组成,第一个是学生名字,第二个是学生的成绩;编写spark独立应用程序求出所有学生的平均成绩,并输出到一个新文件中。下面是输入文件和输出文件的一个样例:
Algorithm成绩:
小明 92
小红 87
小新 82
小丽 90
Database成绩:
小明 95
小红 81
小新 89
小丽 85
Python成绩:
小明 82
小红 83
小新 94
小丽 91
平均成绩如下:
(小红,83.67)
(小新,88.33)
(小明,89.67)
(小丽,88.67)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
(3)重新使用实验2下载的英文短文,编写spark独立应用程序,完成词频统计。要求给出代码及具体注释,程序运行结果截图。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


出现的问题

1.failed to launch: nice -n 0 /home/hadoop/software/spark-3.1.2-bin-without-hadoop/bin/spark-class org.apache.spark.deploy.master.Master --host Leiquanyou_Master001 --port 7077
2.网页无法浏览。
Spark shell运行报错Invalid Spark URL: spark://HeartbeatReceiver…

解决方案:
1.spark-env.sh中需要添加export SPARK_DIST_CLASSPATH= ( ( (HADOOP_HOME/bin/hadoop classpath)
2.需要关闭防火墙:systemctl stop firewalld.service。
在spark-env.shell中设置export SPARK_LOCAL_HOSTNAME=localhost。

最后

以上就是受伤草莓为你收集整理的【大数据技术】实验4:熟悉Spark基础编程一、实验环境二、实验内容出现的问题的全部内容,希望文章能够帮你解决【大数据技术】实验4:熟悉Spark基础编程一、实验环境二、实验内容出现的问题所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(32)

评论列表共有 0 条评论

立即
投稿
返回
顶部