摘要:如果发现某类对象占用内存很大例如几个,很可能是类对象创建太多,且一直未释放。
OOM(OutOfMemoryError) 问题归根结底三点原因:
本身资源不够
申请的内存太多
资源耗尽
解决思路,换成Java服务分析,三个原因也可以解读为:
有可能是内存分配确实过小,而正常业务使用了大量内存
某一个对象被频繁申请,却没有释放,内存不断泄漏,导致内存耗尽
某一个资源被频繁申请,系统资源耗尽,例如:不断创建线程,不断发起网络连接
因此,针对解决思路,快速定位OOM问题的三板斧是:
确认是不是内存本身就分配过小
找到最耗内存的对象
确认是否是资源耗尽
以正式线上的tomcat为例,tomcat运行5个ssm架构的java项目,启动时需要60秒左右,运行一段时间偶尔会有OOM出现,现在逐一排查:
(1) 确认是不是内存本身就分配过小
在服务器(8核16G)上输入 top 查看 java启动时内存变化情况,顺便找到java的进程ID : 10397
然后, 输入:jmap -heap 10397,观察堆、新生代、老年代的内存使用情况,发现大概都用了一半,可以确定,不是内存分配过小问题。
wen@S189919:/opt/tomcat8$ jmap -heap 1246 Attaching to process ID 1246, please wait... Debugger attached successfully. Server compiler detected. JVM version is 24.65-b04 using thread-local object allocation. Parallel GC with 8 thread(s) Heap Configuration: MinHeapFreeRatio = 0 MaxHeapFreeRatio = 100 MaxHeapSize = 4208984064 (4014.0MB) NewSize = 1310720 (1.25MB) MaxNewSize = 17592186044415 MB OldSize = 5439488 (5.1875MB) NewRatio = 2 SurvivorRatio = 8 PermSize = 21757952 (20.75MB) MaxPermSize = 85983232 (82.0MB) G1HeapRegionSize = 0 (0.0MB) Heap Usage: PS Young Generation Eden Space: capacity = 1172307968 (1118.0MB) used = 679248008 (647.781379699707MB) free = 493059960 (470.21862030029297MB) 57.94108941857845% used From Space: capacity = 85983232 (82.0MB) used = 0 (0.0MB) free = 85983232 (82.0MB) 0.0% used To Space: capacity = 115343360 (110.0MB) used = 0 (0.0MB) free = 115343360 (110.0MB) 0.0% used PS Old Generation capacity = 259522560 (247.5MB) used = 147065016 (140.25212860107422MB) free = 112457544 (107.24787139892578MB) 56.667526707504734% used PS Perm Generation capacity = 63963136 (61.0MB) used = 32219528 (30.72693634033203MB) free = 31743608 (30.27306365966797MB) 50.37202678742956% used 16612 interned Strings occupying 2080416 bytes.
(2) 找到最耗内存的对象
jmap -histo:live 1246| more
输入命令后,会以表格的形式显示存活对象的信息,并按照所占内存大小排序:
实例数
所占内存大小
类名
通过观察,虽然我不知道 [B 是什么类,但是最大也只有72M,对内存来说简直没有知觉。
如果发现某类对象占用内存很大(例如几个G),很可能是类对象创建太多,且一直未释放。例如:
申请完资源后,未调用close()或dispose()释放资源
消费者消费速度慢(或停止消费了),而生产者不断往队列中投递任务,导致队列中任务累积过多
wen@S189919:/opt/tomcat8$ jmap -histo:live 1246 | more num #instances #bytes class name ---------------------------------------------- 1: 79073 72095344 [B 2: 103049 13630576 [C 3: 57516 81553284: 57516 7373456 5: 5413 6128216 6: 5413 3861128 7: 4455 3264960 8: 101128 2427072 java.lang.String 9: 46704 1868160 java.lang.ref.Finalizer 10: 5314 1486584 [Ljava.util.HashMap$Entry; 11: 22264 1419160 [Ljava.lang.Object; 12: 17286 1382880 java.lang.reflect.Method 13: 20810 1165360 java.util.zip.ZipFile$ZipFileInputStream 14: 20389 1141784 java.util.zip.ZipFile$ZipFileInflaterInputStream 15: 34592 1106944 java.util.HashMap$Entry 16: 1963 1075048 17: 1762 943992 [I 18: 22136 708352 java.util.concurrent.ConcurrentHashMap$HashEntry 19: 5866 704008 java.lang.Class 20: 14549 581960 java.util.LinkedHashMap$Entry 21: 21158 507792 java.util.ArrayList 22: 7742 453448 [S 23: 8839 450464 [[I 24: 7362 412272 java.util.LinkedHashMap 25: 3735 328416 [Ljava.util.concurrent.ConcurrentHashMap$HashEntry; 26: 14544 322536 [Ljava.lang.Class; 27: 7350 294000 com.sun.org.apache.xerces.internal.dom.DeferredTextImpl 28: 2973 273488 [Ljava.util.WeakHashMap$Entry; 29: 6660 266400 com.sun.org.apache.xerces.internal.dom.DeferredAttrImpl 30: 5394 258912 java.util.HashMap 31: 6441 257640 javax.servlet.jsp.tagext.TagAttributeInfo 32: 436 237184 33: 14200 227200 java.lang.Object 34: 2783 222640 sun.net.www.protocol.jar.URLJarFile 35: 3914 219184 com.sun.org.apache.xerces.internal.dom.DeferredElementImpl 36: 6016 192512 java.util.concurrent.locks.ReentrantLock$NonfairSync 37: 4328 173120 java.lang.ref.SoftReference 38: 2970 166320 java.util.WeakHashMap 39: 3200 153184 [Ljava.lang.String; 40: 3735 149400 java.util.concurrent.ConcurrentHashMap$Segment
(3) 确认是否是资源耗尽
通过查看 sshd 进程,得出句柄详情和线程数
/proc/${PID}/fd
/proc/${PID}/task
最终的结果句柄数和线程数8和4,更不可能引发内存溢出
root@S189919:/home/wen# ps -aux | grep sshd Warning: bad ps syntax, perhaps a bogus "-"? See http://procps.sf.net/faq.html root 749 0.0 0.0 50036 2928 ? Ss 19:01 0:00 /usr/sbin/sshd -D root 1321 0.0 0.0 73440 3608 ? Ss 19:15 0:00 sshd: wen [priv] wen 1464 0.0 0.0 73440 1528 ? S 19:15 0:00 sshd: wen@pts/0 root 1585 0.0 0.0 9388 940 pts/0 S+ 19:20 0:00 grep --color=auto sshd root@S189919:/home/wen# ll /proc/749/fd total 0 dr-x------ 2 root root 0 Sep 4 19:01 ./ dr-xr-xr-x 8 root root 0 Sep 4 19:01 ../ lrwx------ 1 root root 64 Sep 4 19:01 0 -> /dev/null lrwx------ 1 root root 64 Sep 4 19:01 1 -> /dev/null lrwx------ 1 root root 64 Sep 4 19:01 2 -> /dev/null lr-x------ 1 root root 64 Sep 4 19:01 3 -> socket:[7330] lrwx------ 1 root root 64 Sep 4 19:21 4 -> socket:[7332] root@S189919:/home/wen# ll /proc/749/task total 0 dr-xr-xr-x 3 root root 0 Sep 4 19:21 ./ dr-xr-xr-x 8 root root 0 Sep 4 19:01 ../ dr-xr-xr-x 6 root root 0 Sep 4 19:21 749/ root@S189919:/home/wen# ll /proc/749/fd | wc -l 8 root@S189919:/home/wen# ll /proc/749/task | wc -l
(4) 合并相同的 jar 包
最后,想来想去,很有可能是项目启动时加载太多第三方jar包,于是,将5个ssm的jar包合并,覆盖掉相同的,放在tomcat的shared lib目录:
修改 ${ TOMCAT_HOME }/conf/catalina.properties文件中shared.loader= ${catalina.base}/shared/lib,${catalina.base}/shared/lib/*.jar 也可以将公用的jar全部放置${ TOMCAT_HOME }/lib包下
1
启动tomcat,加载完用了37秒,但愿能解决OOM问题,从此不再被领导说。
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/69485.html
摘要:运行模式分种模式一般使用模式效率低对系统配置有一些比较高的要求确认的运行模式配置文件关键配置最大线程数默认是最小活跃线程数默认是最大的等待队列个数,超过则请求拒绝默认值是,一般不改变。 前言 Tomcat作为Web应用的服务器,目前绝大多数公司都是用其作为应用服务器的,应用服务器的执行效率会影响系统执行,这里会讲Tomcat怎样进行配置能提高处理性能。另外必须提到对应的JVM参数的优化...
摘要:也正是因此,一旦出现内存泄漏或溢出问题,如果不了解的内存管理原理,那么将会对问题的排查带来极大的困难。 本文已收录【修炼内功】跃迁之路 showImg(https://segmentfault.com/img/bVbsP9I?w=1024&h=580); 不论做技术还是做业务,对于Java开发人员来讲,理解JVM各种原理的重要性不必再多言 对于C/C++而言,可以轻易地操作任意地址的...
摘要:服务本身是一个,开起的线程数为,再加上一些其他线程,总的线程数不会超过服务内自己没有显示创建线程或者使用线程池。问题解决找到所在后,结局方案很简单,只需将的通过单例的方式注入到服务中,即可解决堆外内存泄漏的问题。 内存泄漏Bug现场 一个做BI数据展示的服务在一个晚上重启了5次,由于是通过k8s容器编排,服务挂了以后会自动重启,所以服务还能继续提供服务。 第一时间先上日志系统查看错误日...
摘要:方法区溢出在的方法区中,它主要存放了类的信息,常量,静态变量等。运行结果简单解决思路一般来说此类问题多出现在存在递归的地方,要从代码里重新审视递归未结束的原因,若递归的方法没问题可以根据实际情况调整参数的大小。 前言 如今不管是在面试还是在我们的工作中,OOM总是不断的出现在我们的视野中,所以我们有必要去了解一下导致OOM的原因以及一些基本的调整方法,大家可以通过下面的事例来了解一下什...
阅读 802·2021-09-07 09:58
阅读 2661·2021-08-31 09:42
阅读 2842·2019-08-30 14:18
阅读 3069·2019-08-30 14:08
阅读 1820·2019-08-30 12:57
阅读 2743·2019-08-26 13:31
阅读 1254·2019-08-26 11:58
阅读 1038·2019-08-23 18:06