ByteBuffer.allocateDirect()和MappedByteBuffer.load()之间的区别

sim*_*sim 14 java unix memory nio bytebuffer

我试图通过使用内存映射特定文件在两个或更多JVM之间实现一种共享缓存MappedByteBuffer.从规范中我看到,当我们使用MappedByteBuffer.load()它时应该将数据加载到直接缓冲区.我对此有几个问题.

我的代码片段::

RandomAccessFile file = new RandomAccessFile("file.txt","rw");
FileChannel fc = file.getChannel();
MappedByteBuffer buf5 = fc.map(MapMode.READ_WRITE, 0, fc.size());

//ByteBuffer buf6 = ByteBuffer.allocateDirect(100000000);

buf5.load();

try
{
    Class c = Class.forName("java.nio.Bits");
    Field f = c.getDeclaredField("reservedMemory");
    f.setAccessible(true);
    long reservedMemory = f.getLong(null);
    f = c.getDeclaredField("maxMemory");
    f.setAccessible(true);
    System.out.println(
            "Direct Memory Usage: "+ reservedMemory +"/"+ f.getLong(null)+"\n");
}
catch (Throwable t)
{
}
Run Code Online (Sandbox Code Playgroud)
  1. 对于直接内存使用(File.txt为1 GB),上述代码的输出为0字节.但是,如果我取消注释该行..

    ByteBuffer buf6 = ByteBuffer.allocateDirect(100000000);
    
    Run Code Online (Sandbox Code Playgroud)

    我得到100MB的直接内存使用率.无法理解为什么会这样,至于为什么我没有得到任何直接的内存使用(即当行被注释掉)

  2. 虽然上述代码的直接内存使用率为0 B,但我确实看到进程的常驻内存(使用unix top)增加了1 GB.但是如果我在盒子上做了"free -m",我看不到任何内存使用量的增加.

在这两种情况下,我对内存最终的位置感到有些困惑.

谢谢!

Mic*_*ker 24

直接ByteBuffers(使用ByteBuffer.allocateDirect分配的那些)与MappedByteBuffers的不同之处在于它们代表不同的内存部分并以不同方式分配.Direct ByteBuffers是一种访问在JVM外部分配的内存块的方法,通常使用malloc调用分配(尽管大多数实现可能使用高效的slab分配器).即它只是一个指向内存块的指针.

MappedByteBuffer表示使用mmap调用分配的内存部分,用于执行内存映射I/O. 因此,MappedByteBuffers不会像Direct ByteBuffer那样注册他们对内存的使用.

因此,虽然两者都是"直接的",因为它们代表JVM之外的内存,但它们的目的是不同的.

顺便说一句,为了获取reservedMemory值,您反射性地调用JVM的内部方法,其实现未被任何规范所涵盖,因此无法保证该值返回的内容.可以使用来自C/C++的NewDirectByteBuffer调用从JNI内部分配直接ByteBuffers (MappedByteBuffers可能使用此方法),这可能不会影响reservedMemory值,该值只有在使用Java ByteBuffer.allocateDirect时才会更改.

  • 内存映射文件计为虚拟内存,而非物理内存,因此预计会增加虚拟内存使用量.值得注意的是,确定一个进程使用了​​多少物理内存是非常困难的(无论如何在linux中),因此常驻大小可能包括内存映射,尽管它实际上并没有消耗太多的物理内存.因此free的原因不会显示任何额外的内存消耗. (2认同)