hadoop shell删除spark日志文件
hdfs占用查询.发现 /spark2-history/目录下占用磁盘最大。[root@node104 ~]# hdfs dfs -du -h / 2.0 G 2.8 G /app-logs56.3 G 112.4 G /apps0 0 /ats5.2 M 5.2 M /atsv20 0 /export1.3 G 1.3 G /hdp0 0 /l