java如何高效地讀取一個超大文件?(四種方式分析對比)

前言

我最近在優化個人PDF轉word的開源小工具,有時候會遇到一個問題,就是若是個人PDF文件比較大,幾百兆,如何更快更節省內存的讀取它。因而我分析對比了四種常見的讀取文件的方式,並使用javaVisualVM工具進行了分析。最後的出的結論是commons-io時間和空間都更加的高效。研究分析依然來自哪位baeldung國外大佬。java

下面我會給出幾種常見的讀取大文件的方式。工具

讀取大文件的四種方式

首先我本身在本地壓縮了一個文件夾,大概500M左右。雖然不是很大可是,相對還能夠。優化

方法1:Guava讀取

`String path = "G:java書籍及工具.zip";
Files.readLines(new File(path), Charsets.UTF_8);
`ui

使用guava讀取比較簡單,一行代碼就搞定了。spa

下面去jdk的bin目錄找到javaVisualVM工具,而後雙擊運行便可。blog

從上圖能夠看到:ip

  • 時間消耗:20秒
  • 堆內存:最高2.5G
  • CPU消耗:最高50%

咱們一個500M的文件,堆內存最高居然2.5G,若是咱們讀取一個2G的文件,可能咱們的電腦直接死機了就。內存

方式2:Apache Commons IO普通方式

`String path = "G:java書籍及工具.zip";
FileUtils.readLines(new File(path), Charsets.UTF_8);
`rem

這種方式也比較簡單,一樣是一行代碼。下面運行,也分析一波:input

從上圖能夠看到:

  • 時間消耗:17秒
  • 堆內存:最高2.5G
  • CPU消耗:最高50%,平穩運行25%左右

這種方式和上面那種基本上消耗差很少,確定不是我想要的。

方式3:java文件流

`FileInputStream inputStream = null;
Scanner sc = null;
try {
     inputStream = new FileInputStream(path);
     sc = new Scanner(inputStream, "UTF-8");
     while (sc.hasNextLine()) {
          String line = sc.nextLine();
          //System.out.println(line);
     }
     if (sc.ioException() != null) {
          throw sc.ioException();
     }
} finally {
     if (inputStream != null) {
          inputStream.close();
     }
     if (sc != null) {
           sc.close();
     }
}
`

這種方式其實就是java中最多見的方式,而後咱們運行分析一波:

從上圖能夠看到:

  • 時間消耗:32秒,增長了一倍
  • 堆內存:最高1G,少了一半
  • CPU消耗:平穩運行25%左右

這種方式確實很優秀,可是時間上開銷更大。

方式4:Apache Commons IO流

`LineIterator it = FileUtils.lineIterator(new File(path), "UTF-8");
try {
      while (it.hasNext()) {
          String line = it.nextLine();
      }
} finally {
     LineIterator.closeQuietly(it);
}
`

這種方式代碼看起來比較簡單,因此直接運行一波吧:

從上圖能夠看到:

  • 時間消耗:16秒,最低
  • 堆內存:最高650M,少了一半
  • CPU消耗:平穩運行25%左右

OK,就它了,牛。

結論

經過以上的分析,咱們能夠得出一個結論,若是咱們想要讀取一個大文件,選擇了錯誤的方式,就有可能極大地佔用個人內存和CPU,當文件特別大時,會形成意向不到的問題。

所以爲了去解決這樣的問題,有四種常見的讀取大文件的方式。經過分析對比,發現,Apache Commons IO流是最高效的一種方式。

相關文章
相關標籤/搜索