我是靠谱客的博主 幽默铅笔,最近开发中收集的这篇文章主要介绍HDFS命令和java API,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

实验步骤

  1. 搭建Hadoop伪分布式模式、或者完全分布式模式
  2. Windows里安装配置JDK+Eclipse+Maven
  3. 在Eclipse里新建Maven Project,新建包,新建class
  4. 编程上述4个Java程序
  5. 虚拟机的namenode主机上,启动Hadoop
  6. 在eclipse里运行上述4个Java程序
  7. 使用hdfs的shell命令查看运行结果
  8. 使用web console查看运行结果

Linux的shell命令
常用的linux的shell命令:
cd /aa 转到/aa目录
pws 显示当前目录
ll /aa 显示/aa目录
mkdir /aa 新建/aa目录
rm /aa/out.txt 删除/aa目录下的out.txt文件
cat /aa/out.txt 查看/aa目录下的out.txt文件的内容
vi /aa/out.txt 编辑/aa目录下的out.txt文件的内容
ifconfig 查看IP地址
ip addr 查看IP地址
hdfs的shell命令
hdfs的shell命令,有三种形式,用前面两个。
hdfs dfs √
hadoop fs √
hadoop dfs ×
常用的hdfs的shell命令:
hdfs dfs -ls / 查看hdfs根目录下文件和目录
hdfs dfs -ls -R / 查看hdfs根目录下包括子目录在内的所有文件和目录
hdfs dfs -mkdir /aa/bb 在hdfs的/aa目录下新建/bb目录
hdfs dfs -rm -r /aa/bb 删除hdfs的/aa目录下的/bb目录
hdfs dfs -rm /aa/out.txt 删除hdfs的/aa目录下的out.txt文件

hdfs dfs -put anaconda-ks.cfg /aa 把本地文件上传到hdfs
hdfs dfs -copyFromLocal a.txt / 把本地文件上传到hdfs
hdfs dfs -get /bb.txt bbcopy.txt 从hdfs下载文件到本地
hdfs dfs -copyToLocal /bb.txt bbcopy.txt 从hdfs下载文件到本地

1、获取 HDFS 文件系统

public static FileSystem getFileSystem() throws IOException, URISyntaxException{
        //1、获取配置文件
        Configuration conf = new Configuration();
        
//        FileSystem fs = FileSystem.get(conf);//集群环境下直接获取默认文件系统
        //2、指定的文件系统地址
        URI path = new URI("hdfs://test:9000");
        //3、返回指定的文件系统地址 ------本地测试使用此方法
        FileSystem fs = FileSystem.get(path, conf);
        //4、此处关闭文件系统流会报错,导致之后的操作无法进行
        /**
         * fs.close();
         * Exception in thread "main" java.io.IOException: Filesystem closed
    at org.apache.hadoop.hdfs.DFSClient.checkOpen(DFSClient.java:795)
    at org.apache.hadoop.hdfs.DFSClient.primitiveMkdir(DFSClient.java:2743)
    at org.apache.hadoop.hdfs.DFSClient.mkdirs(DFSClient.java:2724)
    at org.apache.hadoop.hdfs.DistributedFileSystem$17.doCall(DistributedFileSystem.java:870)
    at org.apache.hadoop.hdfs.DistributedFileSystem$17.doCall(DistributedFileSystem.java:866)
    at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
    at org.apache.hadoop.hdfs.DistributedFileSystem.mkdirsInternal(DistributedFileSystem.java:866)
    at org.apache.hadoop.hdfs.DistributedFileSystem.mkdirs(DistributedFileSystem.java:859)
    at org.apache.hadoop.fs.FileSystem.mkdirs(FileSystem.java:1817)
    at com.dajiangtai.hdfsJavaAPI.FileTest.mkdir(FileTest.java:33)
    at com.dajiangtai.hdfsJavaAPI.FileTest.main(FileTest.java:46)

         * 
         * */
        return fs;
    }
 



    如果放到 hadoop 集群上面运行,获取文件系统可以直接使用 FileSystem.get(conf)。

2、创建文件目录

创建文件目录
    public static void mkdir() throws IOException, URISyntaxException{
    
        //1、调用刚刚获得的HDFS文件系统,返回文件系统对象
        FileSystem fs = getFileSystem();
        //2、指定创建的文件系统路径
        fs.mkdirs(new Path("hdfs://test:9000/filetest"));
        //3、关闭文件流--------此处不关闭流的情况下,创建文件会正常运行,且不报错
        fs.close();
    }

3、删除文件或文件目录

//删除文件或者文件目录
public static void rmdir() throws Exception {
        
    //返回FileSystem对象
    FileSystem fs = getFileSystem();
    
    //删除文件或者文件目录  delete(Path f) 此方法已经弃用
    fs.delete(new Path("hdfs://cloud004:9000/middle/weibo"),true);
    
    //释放资源
    fs.close();
}

4、获取目录下的所有文件

  //获取目录下的所有文件
    public static void getAllFile() throws IOException, URISyntaxException{
        //1、获取文件系统对象
        FileSystem fs = getFileSystem();
        //2、获取该目录下的文件名称---FileStatus获取文件的元数据
        FileStatus[] listStatus = fs.listStatus(new Path("hdfs://test:9000/filetest/"));
        //3.获取文件的path路径
        Path[] stat2Paths = FileUtil.stat2Paths(listStatus);
        //4、循环遍历路径,输出结果
        for(Path path: stat2Paths){
            System.out.println(path);
        }
        fs.close();
        /**打印结果
         * hdfs://test:9000/filetest/file0.txt
hdfs://test:9000/filetest/file1.txt
hdfs://test:9000/filetest/file2.txt
hdfs://test:9000/filetest/file3.txt
hdfs://test:9000/filetest/file4.txt
hdfs://test:9000/filetest/file5.txt
         * */
    }

5、文件上传至 HDFS

//上传文件到hdfs
    public static void copyToHdfs() throws IOException, URISyntaxException{
        //1、获取文件系统对象
        FileSystem fs = getFileSystem();
        /*
         * Exception in thread "main" java.io.FileNotFoundException: File does not exist: /home/hadoop/app/hadoop-2.6.0/filetest/copyToHdfs.txt
         * 
         * Exception in thread "main" java.lang.IllegalArgumentException: Pathname /C:/Users/yizhijing/Desktop/llllllll/file1.txt from C:/Users/yizhijing/Desktop/llllllll/file1.txt is not a valid DFS filename.
         * */
        //本地文件路径,并且集群中同文件目录下不存在同名文件的情况下
        //2、获取本地文件路径------在windows环境下就是wondows路径,在Linux环境下就是linux路径eg:/home/hadoop/app/hadoop-2.6.0/filetest/file.txt
        Path path = new Path("D://file.txt");
        //3、获取集群文件路径
        Path path2 = new Path("hdfs://test:9000/filetest");
        //4、调用文件系统的方法上传文件
        fs.copyFromLocalFile(path, path2);
        //5、关闭文件流
        fs.close();
    }

6、从 HDFS 下载文件

//从hdfs下载文件到到本地windows系统
    public static void copyToLocal() throws IOException, URISyntaxException{
        //1、获取文件系统对象
        FileSystem fs = getFileSystem();
        //2、指定下载的hdfs文件路径
        Path path = new Path("hdfs://test:9000/filetest/file.txt");
        //3、指定本地接收的文件路径
        Path path2 = new Path("F://软件all/微信/WeChat Files/WeChat Files/l1067021152/Files");
        //4、调用文件系统的下载文件系统方法
        fs.copyToLocalFile(path, path2);
        //5、关闭文件流
        fs.close();
    }    

7、获取 HDFS 集群节点信息

//获取hdfs节点信息
    public static void getNodeMessage() throws IOException, URISyntaxException{
        //1、获取文件系统对象
        FileSystem fs = getFileSystem();
        //2、获取分布式文件系统对象
        DistributedFileSystem hdfs = (DistributedFileSystem)fs;
        //3、获取分布式系统所有节点信息
        DatanodeInfo[] dataNodeStats = hdfs.getDataNodeStats();
        //4、打印节点
        for(int i = 0;i<dataNodeStats.length;i++){
            System.out.println("datanode_"+i+"name:"+dataNodeStats[i].getHostName());
        }
    }

8、查找某个文件在 HDFS 集群的位置

//查询某个文件在集群中的位置信息
    public static void getFileMessage() throws IOException, URISyntaxException{
        //1、获取分布式文件系统
        FileSystem fs = getFileSystem();
        //2、获取某文件的路径
        Path path = new Path("hdfs://test:9000/filetest/file.txt");
        //3、获取某文件的目录
        FileStatus fileStatus = fs.getFileStatus(path);
        //4、获取文件块位置列表
        BlockLocation[] fileBlockLocations = fs.getFileBlockLocations(fileStatus, 0, fileStatus.getLen());
        //5、循环输出块信息
        for (int i = 0; i < fileBlockLocations.length; i++) {
            String[] hosts = fileBlockLocations[i].getHosts();
            System.out.println("block"+i+"location"+hosts[0]);
        }
    }

运行程序
以上 Java API 操作 HDFS 的各种方法,在本地测试完成后,可以根据自己实际情况,稍加修改Path路径就可以直接放到 Hadoop 环境下运行。大致需要以下几步:
第一步:我们使用 myEclipse 将 FileTest.java 类打包为 FileTest.jar。因为这里不涉及第三方 jar 包,而且 Hadoop 集群上面已经存在 hadoop 所需要的jar包,所以我们只需要打包 FileTest.java 即可。
FileTest.jar
第二步:在hadoop用户下,通过 xshell 客户端,将 test.jar 上传至 hadoop服务器本地目录/home/hadoop/app/hadoop-2.6.0/filetest/的下面。
[hadoop@test djt]$ ls
FileTest.jar
第3步:我们需要切换到 hadoop 的安装目录bin下来运行 FileTest.jar 文件,否则无法找到需要的 jar包来执行程序。
[hadoop@testhadoop-2.2.0-x64]$ hadoop jar /home/hadoop/djt/FileTest.jar

最后

以上就是幽默铅笔为你收集整理的HDFS命令和java API的全部内容,希望文章能够帮你解决HDFS命令和java API所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(45)

评论列表共有 0 条评论

立即
投稿
返回
顶部