概述
基于前面配置的HDFS伪分布式模式进行实验,完全分布式模式下次来搞。。
创建Java项目,File->New->Java Project,命名为TestHDFS
采用单元测试做实验,加入单元测试依赖包,项目导航栏里右键Build Path->AddLibraries->JUnit,以上操作完成如下:
引入hadoop相关外部jar包,Build Path->Add ExternalArchives,jar包包括:
hadoop/lib/*.jar,hadoop/hadoop-core-1.2.1.jar
创建一个java类,TestHDFS.java,继承junit.framework.TestCase,代码开始写:
import java.io.BufferedInputStream;
import java.io.File;
import java.io.FileInputStream;
import java.io.InputStream;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.BlockLocation;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.junit.Test;
import junit.framework.TestCase;
public class TestHDFS extends TestCase {
@Test
}
@Test
}
还有很多函数,慢慢使用体会吧。。。
单元测试过程:
Eclipse左侧窗口,展开java类的方法,对某个需要进行单元测试的类右键,选择JUnitTest,如图所示。
先到这里吧。。。
API说明:
http://hadoop.apache.org/docs/current/api/
最后
以上就是害羞画板为你收集整理的Hadoop API编程——FileSystem操作的全部内容,希望文章能够帮你解决Hadoop API编程——FileSystem操作所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复