file.transferTo 上传图片报错(file.transferto()作用)

在上一篇文章中,主要介绍了rocketmq消息的存储流程。其主要使用了mmap的零拷贝技术实现了硬盘和内存的映射,从而提高了读写性能。在流程中有一个非常有意思的预热方法并没有详细分析,因为其中涉及到了一些系统方法的调用。而本文就从该方法入手,进而分享除了mmap之外,还有哪些零拷贝方法,以及他们的系统底层调用是怎样的。

本文的主要内容

1.page cache与mmap的关系

2.rocketmq对零拷贝的使用和优化

3.transferTo/From的零拷贝

4.splice的零拷贝

1.page cache与mmap的关系

page cache允许系统将一部分硬盘上的数据存放在内存中,使得对这部分数据的访问不需要再读取硬盘了,从而提高了读写性能。我理解这就是所谓的内核缓存。page cache以页为单位,一般一页为4kb。当程序需要将数据写入文件时,并不会,也不能直接将数据写到磁盘上,而是先将数据复制到page cache中,并标记为dirty,等待系统的flusher线程定时将这部分数据落到硬盘上。

对于用户程序来说,因为不能直接访问内核缓存,所以读取文件数据都必须等待系统将数据从磁盘上复制到page cache中,再从page cache复制一份到用户态的内存中。于是读取文件就产生了2次数据的复制:硬盘=>page cache,page cache=>用户态内存。同样的数据在内存中会存在2份,这既占用了不必要的内存空间,也产生了冗余的拷贝。针对此问题,操作系统提供了内存映射机制,对于linux来说,就提供了mmap操作。

mmap是一种内存映射文件的方法,即将一个文件或者其它对象映射到进程的内存中,实现文件磁盘地址和进程内存地址的映射关系。映射完成后,进程就可以直接读写操作这一段内存,而系统会自动回写dirty页面到对应的文件磁盘上,即完成了对文件的操作而不必再调用read,write等系统调用函数。

2.rocketmq对零拷贝的使用和优化

map的底层调用

rocketmq创建mappedFile对象后,会调用其init方法,完成了最终的映射操作。调用的方法是fileChannel.map。

查看FileChannelImpl.map:

public MappedByteBuffer map(MapMode var1, long var2, long var4) throws IOException {    ...    //调用map0方法完成映射,并返回内存地址    var7 = this.map0(var6, var36, var10);    ...    //根据内存地址创建MappedByteBuffer对象,供java层面的操作    var37 = Util.newMappedByteBuffer(var35, var7 + (long)var12, var13, var15);    return var37;    ...}

继续查看map0方法:

private native long map0(int var1, long var2, long var4) throws IOException;

发现其是一个native方法,于是就需要去jdk源码中看看了。

查看jdk源码:/src/java.base/unix/native/libnio/ch/FileChannelImpl.c

#define mmap64 mmapJNIEXPORT jlong JNICALLJava_sun_nio_ch_FileChannelImpl_map0(JNIEnv *env, jobject this,                                     jint prot, jlong off, jlong len){    ...    //这里调用的是mmap64,但是在文件开头define了mmap64就是mmap方法    mapAddress = mmap64(        0,                    /* Let OS decide location */        len,                  /* Number of bytes to map */        protections,          /* File permissions */        flags,                /* Changes are shared */        fd,                   /* File descriptor of mapped file */        off);                 /* Offset into file */    ...    //返回映射完成的内存地址    return ((jlong) (unsigned long) mapAddress);}

因此fileChannel.map最底层调用就是linux的系统方法mmap。

mmap系统方法:为进程创建虚拟地址空间映射

参考说明:

warmMappedFile的底层调用

rocketmq在创建完mmap映射后,还会作一个预热

查看mappedFile.warmMappedFile方法:

public void warmMappedFile(FlushDiskType type, int pages) {    ByteBuffer byteBuffer = this.mappedByteBuffer.slice();    int flush = 0;    //用0来填充文件,特别注意这里i每次递增都是OS_PAGE_SIZE,查看可以看到是1024*4,即4kb    //因此初始化是以页为单位填充的    for (int i = 0, j = 0; i < this.fileSize; i += MappedFile.OS_PAGE_SIZE, j++) {        byteBuffer.put(i, (byte) 0);        //如果需要同步刷盘,那么如果写入mappedByteBuffer的数据超过了指定页数,就做一次强制刷盘        if (type == FlushDiskType.SYNC_FLUSH) {            //i是当前写入的数据位置,flush是已经刷盘的数据位置,如果差值大于指定的页数pages,就做一次强制刷盘            if ((i / OS_PAGE_SIZE) - (flush / OS_PAGE_SIZE) >= pages) {                flush = i;                mappedByteBuffer.force();            }        }        ...    }    //全部填充完毕后,如果配置了同步刷盘,就再做一次强制刷盘操作    if (type == FlushDiskType.SYNC_FLUSH) {        mappedByteBuffer.force();    }    //这里是对内存再做一些预处理    this.mlock();}

接着查看mlock方法:

public void mlock() {    final long address = ((DirectBuffer) (this.mappedByteBuffer)).address();    Pointer pointer = new Pointer(address);    int ret = LibC.INSTANCE.mlock(pointer, new NativeLong(this.fileSize));    int ret = LibC.INSTANCE.madvise(pointer, new NativeLong(this.fileSize), LibC.MADV_WILLNEED);}

mlock方法主要做了2个系统方法的调用,mlock和madvise

mlock系统方法:锁定内存中的虚拟地址空间,防止其被交换系统的swap空间中。

swap空间就是磁盘上的一块空间,当内存不够用时,系统会将部分内存中不常用的数据放到磁盘上。mmap本身就是为了提高读写性能,如果被映射的内存数据被放到了磁盘上,那就失去了mmap的意义了,所以要做一个mlock进行内存的锁定。

参考说明:

madvise系统方法:该方法功能很多,主要是给系统内核提供内存处理建议,可以根据需要传入参数。

在rocketmq中,传入的参数是 MADV_WILLNEE ,该参数的意思是告诉系统内核,这块内存一会儿就会用到,于是系统就会提前加载被映射的文件数据到内存中,这样就不会在需要使用的时候才去读取磁盘,影响性能。其他建议类型可以参考下面的链接。

参考说明:

落盘的底层调用

上面的分析仅仅是创建mappedFile的过程,而在实际存储消息的时候,无论是使用堆外内存还是直接使用mappedByteBuffer,都需要额外的刷盘任务负责保证数据写入磁盘。因此接下去看下刷盘的底层调用是什么。

查看MappedFile.flush方法:

public int flush(final int flushLeastPages) {    ...    if (writeBuffer != null || this.fileChannel.position() != 0) {        //如果使用了堆外内存,则调用fileChannel的force方法        this.fileChannel.force(false);    } else {        //如果使用的是mappedByteBuffer,则调用相应的force方法        this.mappedByteBuffer.force();    }    ...}

该方法比较简单,根据是否启用堆外内存,调用不同的force方法。

查看FileChannelImpl.force方法:

public void force(boolean var1) throws IOException {    ...    do {        //调用FileDispatcher的force方法        var2 = this.nd.force(this.fd, var1);    } while(var2 == -3 && this.isOpen());    ...}

查看FileDispatcherImpl.force方法,会发现其调用的force0的natvie方法,因此直接看jdk源码

JNIEXPORT jint JNICALLJava_sun_nio_ch_FileDispatcherImpl_force0(JNIEnv *env, jobject this,                                          jobject fdo, jboolean md){    ...    result = fsync(fd);    ...}

因此fileChannel.force的底层就是调用了fsync方法

fsync系统方法:将内核内存中有修改的数据同步到相应文件的磁盘空间

参考说明:

查看MappedByteBuffer的force方法,可以看到直接调用了force0的native方法:

JNIEXPORT void JNICALLJava_java_nio_MappedByteBuffer_force0(JNIEnv *env, jobject obj, jobject fdo,                                      jlong address, jlong len){    int result = msync(a, (size_t)len, MS_SYNC);    ...}

因此mappedByteBuffer.force的底层调用了msync方法

msync系统方法:将mmap映射的内存空间中的修改同步到文件系统中

参考说明:

因此做一个总结,rocketmq对零拷贝的使用和优化分为5步:1.调用系统mmap方法进行虚拟内存地址映射2.用0来填充page cache,初始化文件3.调用系统mlock方法,防止映射的内存被放入swap空间4.调用系统madvise方法,使得文件会被系统预加载5.根据是否启用堆外内存,调用fsync或者msync刷盘

transferTo/From的零拷贝

在使用fileChannel时,如果不需要对数据作修改,仅仅是传输,那么可以使用transferTo或者transferFrom进行2个channel间的传递,这种传递是完全处于内核态的,因此性能较好。

简单的例子如下:

SocketChannel sc = SocketChannel.open(new InetSocketAddress("localhost", 8090));FileChannel fc = new RandomAccessFile("filename", "r").getChannel();fc.transferTo(0, 100, sc);

查看FileChannelImpl.transferTo方法,最终会调用到transfer0方法,调用链如下:

transferTo->transferToDirectly->transferToDirectlyInternal->transferTo0

查看jdk源码:/src/java.base/unix/native/libnio/ch/FileChannelImpl.c

...JNIEXPORT jlong JNICALLJava_sun_nio_ch_FileChannelImpl_transferTo0(JNIEnv *env, jobject this,                                            jobject srcFDO,                                            jlong position, jlong count,                                            jobject dstFDO){#if defined(__linux__)    off64_t offset = (off64_t)position;    jlong n = sendfile64(dstFD, srcFD, &offset, (size_t)count);    ...#elif defined (__solaris__)    result = sendfilev64(dstFD, &sfv, 1, &numBytes);    ...#elif defined(__APPLE__)    result = sendfile(srcFD, dstFD, position, &numBytes, NULL, 0);    ...#endif}...

根据不同的系统调用sendfile方法。

sendfile系统方法:在内核态中进行两个文件描述符之间数据的阐述

参考说明:

splice的零拷贝

在查询资料的过程中,了解到Linux 2.6.17支持了splice。该方法和sendFile类似,也是直接在内核中完成了数据的传输。区别在于sendfile将磁盘数据加载到内核缓存后,需要一次CPU拷贝将数据拷贝到socket缓存,而splice是更进一步,连这个CPU拷贝也不需要了,直接将两个内核空间的buffer进行pipe。

好像java对此并没有支持,所以就不深究了。

参考说明:

到此从rocketmq的mmap到其他零拷贝的底层调用分析就结束了,总结如下:

1.rocketmq底层采用了mmap的零拷贝技术提高读写性能。

2.使用了mlock和madvise进一步优化性能

3.根据是否使用堆外内存选择调用fsync或者msync进行刷盘

4.sendfile实现了内核态的数据拷贝,java中有fileChannel.transferTo/From支持该操作

5.Linux2.6.17新支持了splice的零拷贝,可能比sendfile更优秀,但java中目前好像还未有支持。

本站部分内容由互联网用户自发贡献,该文观点仅代表作者本人,本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。

如发现本站有涉嫌抄袭侵权/违法违规等内容,请联系我们举报!一经查实,本站将立刻删除。