### 1、传统的在内存中读取
读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法:
~~~
Files.readLines(new
File(path), Charsets.UTF_8);
FileUtils.readLines(new
File(path));
~~~
这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致程序抛出OutOfMemoryError 异常。
例如:读取一个大约1G的文件:
~~~
@Test
public
void
givenUsingGuava_whenIteratingAFile_thenWorks() throws
IOException {
String
path = ...
Files.readLines(new
File(path), Charsets.UTF_8);
}
~~~
这种方式开始时只占用很少的内存:(大约消耗了0Mb内存)
~~~
[main]
INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 128
Mb
[main]
INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 116
Mb
~~~
然而,当文件全部读到内存中后,我们最后可以看到(大约消耗了2GB内存):
~~~
[main]
INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 2666
Mb
[main]
INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 490
Mb
~~~
这意味这一过程大约耗费了2.1GB的内存——原因很简单:现在文件的所有行都被存储在内存中。
把文件所有的内容都放在内存中很快会耗尽可用内存——不论实际可用内存有多大,这点是显而易见的。
此外,我们通常不需要把文件的所有行一次性地放入内存中——相反,我们只需要遍历文件的每一行,然后做相应的处理,处理完之后把它扔掉。所以,这正是我们将要做的——通过行迭代,而不是把所有行都放在内存中。
### 2、文件流
现在让我们看下这种解决方案——我们将使用java.util.Scanner类扫描文件的内容,一行一行连续地读取:
~~~
FileInputStream
inputStream = null;
Scanner
sc = null;
try
{
inputStream
= new
FileInputStream(path);
sc
= new
Scanner(inputStream, "UTF-8");
while
(sc.hasNextLine()) {
String
line = sc.nextLine();
//
System.out.println(line);
}
//
note that Scanner suppresses exceptions
if
(sc.ioException() != null)
{
throw
sc.ioException();
}
}
finally
{
if
(inputStream != null)
{
inputStream.close();
}
if
(sc != null)
{
sc.close();
}
}
~~~
这种方案将会遍历文件中的所有行——允许对每一行进行处理,而不保持对它的引用。总之没有把它们存放在内存中:(大约消耗了150MB内存)
~~~
[main]
INFO org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 763
Mb
[main]
INFO org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 605
Mb
~~~
### 3、Apache Commons IO流
同样也可以使用Commons IO库实现,利用该库提供的自定义LineIterator:
~~~
LineIterator
it = FileUtils.lineIterator(theFile, "UTF-8");
try
{
while
(it.hasNext()) {
String
line = it.nextLine();
//
do something with line
}
}
finally
{
LineIterator.closeQuietly(it);
}
~~~
由于整个文件不是全部存放在内存中,这也就导致相当保守的内存消耗:(大约消耗了150MB内存)
~~~
[main]
INFO o.b.java.CoreJavaIoIntegrationTest - Total Memory: 752
Mb
[main]
INFO o.b.java.CoreJavaIoIntegrationTest - Free Memory: 564
Mb
~~~
### 4、结论
这篇短文介绍了如何在不重复读取与不耗尽内存的情况下处理大文件——这为大文件的处理提供了一个有用的解决办法。
原文链接: [Eugen Paraschiv](http://www.baeldung.com/java-read-lines-large-file) 翻译: [ImportNew.com ](http://www.importnew.com/)- [进林](http://www.importnew.com/author/8zjl8)
- 前言
- spring事务(Transaction )报 marked as rollback-only异常的原因及解决方法
- 自己整理的编码规范总结。(个人觉得很受用)
- spring事务常见问题、异常分析和解决方法
- 剖析OutOfMemoryError: PermGen space产生原因及解决方法
- 剖析java.lang.OutOfMemoryError: Java heap space产生原因及解决方法
- java中不同的ORM框架实现对数据库批量插入数据库的方式与技巧
- 解决java读取大文件内存溢出问题、如何在不重复读取与不耗尽内存的情况下处理大文件
- 不得不看的Java代码性能优化总结
- 实现使用3des在页面js加密,后台java解密
- Java日志记录的5条规则