手把手教你java處理超大csv文件 java讀取大文件內容


前言 我最近在優化我的PDF轉word的開源小工具,有時候會遇到一個問題,就是如果我的PDF文件比較大,幾百兆,如何更快更節省內存的讀取它 。于是我分析對比了四種常見的讀取文件的方式,并使用javaVisualVM工具進行了分析 。最后得出的結論是commons-io時間和空間都更加的高效 。研究分析依然來自哪位baeldung國外大佬 。
下面我會給出幾種常見的讀取大文件的方式 。
讀取大文件的四種方式 首先我自己在本地壓縮了一個文件夾,大概500M左右 。雖然不是很大但是,相對還可以 。
方法1:Guava讀取 String path = "G:java書籍及工具.zip";Files.readLines(new File(path), Charsets.UTF_8); 使用guava讀取比較簡單,一行代碼就搞定了 。
下面去jdk的bin目錄找到javaVisualVM工具,然后雙擊運行即可 。
從上圖可以看到:

時間消耗:20秒
堆內存:最高2.5G
【手把手教你java處理超大csv文件 java讀取大文件內容】CPU消耗:最高50%
我們一個500M的文件,堆內存最高竟然2.5G,如果我們讀取一個2G的文件,可能我們的電腦直接死機了就 。
方式2:Apache Commons IO普通方式 String path = "G:java書籍及工具.zip";FileUtils.readLines(new File(path), Charsets.UTF_8); 這種方式也比較簡單,同樣是一行代碼 。下面運行,也分析一波:
從上圖可以看到:
時間消耗:17秒
堆內存:最高2.5G
CPU消耗:最高50%,平穩運行25%左右
這種方式和上面那種基本上消耗差不多,肯定不是我想要的 。
方式3:java文件流 FileInputStream inputStream = null;Scanner sc = null;try {inputStream = new FileInputStream(path);sc = new Scanner(inputStream, "UTF-8");while (sc.hasNextLine()) {String line = sc.nextLine();//System.out.println(line);}if (sc.ioException() != null) {throw sc.ioException();}} finally {if (inputStream != null) {inputStream.close();}if (sc != null) {sc.close();}} 這種方式其實就是java中最常見的方式,然后我們運行分析一波:
從上圖可以看到:
時間消耗:32秒,增加了一倍
堆內存:最高1G,少了一半
CPU消耗:平穩運行25%左右
這種方式確實很優秀,但是時間上開銷更大 。
方式4:Apache Commons IO流 LineIterator it = FileUtils.lineIterator(new File(path), "UTF-8");try {while (it.hasNext()) {String line = it.nextLine();}} finally {LineIterator.closeQuietly(it);} 這種方式代碼看起來比較簡單,所以直接運行一波吧:
從上圖可以看到:
時間消耗:16秒,最低
堆內存:最高650M,少了一半
CPU消耗:平穩運行25%左右
OK,就它了,牛 。

猜你喜歡