[原创]Java虚拟机大对象存储_Tomcat, WebLogic及J2EE讨论区_Weblogic技术|Tuxedo技术|中间件技术|Oracle论坛|JAVA论坛|Linux/Unix技术|hadoop论坛_联动北方技术论坛  
网站首页 | 关于我们 | 服务中心 | 经验交流 | 公司荣誉 | 成功案例 | 合作伙伴 | 联系我们 |
联动北方-国内领先的云技术服务提供商
»  游客             当前位置:  论坛首页 »  自由讨论区 »  Tomcat, WebLogic及J2EE讨论区 »
总帖数
1
每页帖数
101/1页1
返回列表
0
发起投票  发起投票 发新帖子
查看: 2966 | 回复: 0   主题: [原创]Java虚拟机大对象存储        下一篇 
guo.ye
注册用户
等级:少校
经验:1216
发帖:39
精华:0
注册:1970-1-1
状态:离线
发送短消息息给guo.ye 加好友    发送短消息息给guo.ye 发消息
发表于: IP:您无权察看 2014-7-14 16:47:05 | [全部帖] [楼主帖] 楼主

今天学习了一些关于文件上传操作中可能造成的java虚拟机大对象存储问题,菜鸟第一次发帖总结,失误、错误漏洞百出,希望帖子没有达到不忍直视的地步……

首先,看段文件上传的代码:

public Upload(ServletConfig config,HttpServletRequest request){
      m_application = config.getServletContext();
      m_request = request;
      m_totalBytes = m_request.getContentLength();
      m_binArray = new byte[m_totalBytes + 2];
      for(;totalRead<m_totalBytes;totalRead+=readBytes){
            try{
                  m_request.getInputStream();
                  readBytes = m_request.getInputStream().read(m_binArray,totalRead,m_totalBytes - totalRead);
            }
      }


}

由以上两段代码可以看出来上传文件是从HttpServletRequest

的getInputStream()中陆续读取出来,

读取之前会直接根据Request

中内容的长度申请一个byte数组,此处为大的内存申请的根本原因,而且从后续的代码可以看出来,Request中允许包含多个对象,多个对象一起上传的话就会全部装载在同一个byte数组中,等全部上传完毕后,文件的内容全都临时存放在这块内存中(即byte数组中),接着在完成了一段业务逻辑分析之后,再依次从数组中把文件内容字节读取出来,调用saveAs方法写入到本地硬盘中,该流程的相关代码段如下:

for(int i =0;i<m_files.getCount();i++){
      if(!m_files,getFile(i).isMissing()){
            m_files,getFile(i).saveAs(destPathName + m_files.getFile(i),option);
            count++;
      }


}

public void savaAs(String (destPathName,int optionSaveAs) throws IOException{
      System.out.println("IOException occur!");
      try{
            java.io.File file = new java.io.Flie(path);
            FileOutputStream fileOut = new FileOutputStream(file);
            fileOut.write(m_parent.m_binArray,m_startData,m_size);
            fileOut.close();
      }


}

这样做有一个很大的缺陷,就是在并发量逐渐增加的时候,会占用大量的内存空间来存放这些文件内容字节,而且这些字节都是要占用JVM

堆内存的连续空间。此外由于在I/O读写时需要占据一定的时间,造成了即使这段时间内客户端上传完毕了也还要保持与服务端始终连接,等待服务端处理完业务逻辑的分析并写入硬盘空间之后才能断开连接,同时JVM中的文件占用内存才能得到回收的问题。

解决问题的办法是,采用缓冲式I/O

读写,绝不使用JVM堆内存来保存整个文件

,示例代码如下:

InputStream in = request.getInputStream();
byte[] buf = new byte[1024*64];
File file = new java.io.File(path);
FileOutputStream fileOut = new FileOutputStream(file);
int len = 0;
while((len = in.read(buf))>0){
fileOut.write(buf,0,len);


}

这种原则是每次上传时,申请一个适中大小的byte

数组做缓冲数组(参考64kB大小),直接从request的InputStream中直接依次读取64KB数据到此byte数组中,然后马上写入本地文件(JVM堆内存只需要维护这个64KB数组),这样就杜绝了JVM中直接申请对象超过64KB的可能。另一好处就是,该办法还能防止在GC日志中频繁出现因为内存碎片造成的明明有大量堆空间,却分配失败,迫使进行GC的现象发生。




赞(0)    操作        顶端 
总帖数
1
每页帖数
101/1页1
返回列表
发新帖子
请输入验证码: 点击刷新验证码
您需要登录后才可以回帖 登录 | 注册
技术讨论