import java.io.ByteArrayOutputStream;java
import java.io.FileInputStream;apache
import java.io.FileOutputStream;分佈式
import java.io.InputStream;ide
import java.net.URL;oop
import org.apache.hadoop.conf.Configuration;spa
import org.apache.hadoop.fs.FSDataInputStream;.net
import org.apache.hadoop.fs.FSDataOutputStream;xml
import org.apache.hadoop.fs.FileStatus;對象
import org.apache.hadoop.fs.FileSystem;hadoop
import org.apache.hadoop.fs.FileUtil;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.junit.Test;
public class modify_replication {
@Test
public void modirepli() throws Exception {
// 建立configuration對象,有個默認的加載順序,先從core-default.xml,再到src目錄中的文件,這
//裏咱們給定了
Configuration conf = new Configuration();
//修改當前文件的塊大小
conf.set("dfs.blocksize", "20480");
// 從配置文件中獲得該分佈式文件系統的對象
FileSystem fs = FileSystem.get(conf);
//修改複製因子,實際上是經過建立新的流,在上傳新的數據的過程當中指定了新的文件副本數的意思,並不
//是真正修改了原有的文件副本數
FSDataOutputStream out = fs.create(new Path("/user/hadoop/data2/kaola-copy2.jpg"), (short)2);
IOUtils.copyBytes(new FileInputStream("E:/zhaopian.jpg"), out, 1024);
out.close();
}
}