Hadoop學習--經過API訪問本地文件系統--day04

import java.io.ByteArrayOutputStream;java

import java.io.InputStream;apache

import java.net.URL;數組


import org.apache.hadoop.conf.Configuration;分佈式

import org.apache.hadoop.fs.FSDataInputStream;ide

import org.apache.hadoop.fs.FileStatus;oop

import org.apache.hadoop.fs.FileSystem;測試

import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;spa

import org.apache.hadoop.fs.LocalFileSystem;.net

import org.apache.hadoop.fs.Path;xml

import org.apache.hadoop.io.IOUtils;

import org.junit.Test;


/**

 * 測試hadoop文件系統的API

 * 

 * @author Administrator

 * 

 */

public class localfilesytem {


/**

* 經過filesystem對象API獲得本地文件系統

* @author Administrator

*/

@Test

public void read() throws Exception {

// 建立configuration對象,有個默認的加載順序,先從core-default.xml,再到src目錄中的文件,這

//裏咱們給定了

Configuration conf = new Configuration();

// 能夠手動添加指定的配置文件

// conf.addResource("my-core-site.xml");

// 經過conf的configuration對象建立了該分佈式文件系統fs,默認若是不指定文件的話爲本地文件系

//統

FileSystem fs = FileSystem.get(conf);

//經過getLocal方法獲得本地文件系統對象

LocalFileSystem local = fs.getLocal(conf);

//經過本地文件對象的listStatus方法獲得一個文件狀態的數組

FileStatus[] arr = local.listStatus(new Path("D:/"));

//遍歷數組

for(FileStatus fs0 : arr){

System.out.println(fs0.getPath());

}


}

}

相關文章
相關標籤/搜索