这星期被线上JVM内存占用不断增大的问题所困扰,自己提出了一些假设,然后去实施验证都一一失败了,有一些经验和教训在这里分享下.
之所以是尴尬,是最后因为修复了另一个看似不相关的问题导致内存不再上升,但这之间的关系还未明了,还需要继续追踪.
这里讲述一下这次排查的过程.
直接内存的错误判断
服务器的JVM配置为Xmx3g
,使用G1,没有设置Xms
考虑自然收缩和fgc之后的空间回拢.
没有发生过fgc,且堆内存的增长正常,排除掉堆内存的问题.
使用NMT查看各个区域的内存正常,committed内存不足4G,但实际情况内存占用不断增大,甚至出现了OOM killer杀掉java进程.
Total: reserved=5037MB, committed=3926MB - Java Heap (reserved=3072MB, committed=3072MB) (mmap: reserved=3072MB, committed=3072MB)- Class (reserved=1196MB, committed=192MB) (classes #29793) (malloc=6MB #86203) (mmap: reserved=1190MB, committed=186MB)- Thread (reserved=186MB, committed=186MB) (thread #184) (stack: reserved=184MB, committed=184MB) (malloc=1MB #922) (arena=1MB #366)- Code (reserved=273MB, committed=171MB) (malloc=29MB #39947) (mmap: reserved=244MB, committed=142MB)- GC (reserved=176MB, committed=176MB) (malloc=30MB #114115) (mmap: reserved=146MB, committed=146MB)- Compiler (reserved=1MB, committed=1MB)- Internal (reserved=88MB, committed=88MB) (malloc=88MB #83467)- Symbol (reserved=31MB, committed=31MB) (malloc=27MB #312661) (arena=4MB #1)- Native Memory Tracking (reserved=10MB, committed=10MB) (tracking overhead=10MB)- Unknown (reserved=6MB, committed=0MB) (mmap: reserved=6MB, committed=0MB)
内存增长情况(中间下降是进行fgc或重启服务)
最开始考虑是直接内存的问题,观察GC行为发现没有发生过一次fgc,想当然觉得应该是直接内存无法回收,并且在手动执行gc之后内存占用的确是下降的.
于是调整了一波JVM参数,将堆大小设置为2500M,并配置MaxDirectMemory用来触发fgc.
但最后发现内存依旧增长,且还是没有fgc.
再观察了下heap(jmap -heap)的情况,发现手工触发fgc后,heap释放的大小和内存下降几乎一致.
在使用JMX查看了direct pool(java.nio.BufferPool)后惊奇地发现..直接内存并没有多少使用(我们底层用了netty,下意识认为出了问题):
图中所示最大只用了4M左右.
最后设置了Xms
之后发现fgc已经没有作用,内存的使用量不会再下降,排除掉了这个因素.
这个错误的判断最主要的原因还是先入为主,没有收集支撑的直接证据.
stack中的间隙
接下去只能使用pmap
(pamp -X pid)看下具体的内存信息.
发现了一些有趣的东西,大量的64M块.
直觉告诉我,快找出问题了.
搜索了下发现类似的问题:
解决方法也很直接换一个分配内存的库.
可选的也只有tcmalloc和jemalloc.
选择了前者,配置之后效果出众.
已经没有上图中那么多的64M块了.
并且启动后的内存使用是掉了下来,但是好景不长.
(蓝线是使用了tcmalloc,红线是对比方)
刚开始的确蓝线内存使用好一点(红线在20:00的时候重启 内存降低了).
但随后还是增长了,比较迷的一点是在8点后内存陡降(但JVM没有重启,PID也没有变化),恢复到了最初的水平.
看来问题不在这里.
看似没有关联的问题
周常部署的时候出现一个问题,导致heap OOM,我跟了下发现了一段代码内存溢出,但看似和这个堆外内存引起的问题没有关联就没怎么在意.
第二天同事修复了这个问题,迁移走了这个接口到另一个服务.
tcmalloc的heap profiling无法使用,一开启libunwind
就segment fault
退出,换成jemalloc后开启.
还在想是不是常见的那个zip溢出的问题,但是搜索了代码库没有发现忘记关闭的情况,等着看下增长和dump验证下.
观察了一会儿,突然发现内存不再增长了.
(蓝线是之前一直留着的机器,中间降低是进行了重启)
非常平稳地度过了一天.
那坨profiling也失去了意义... ...
这就感觉非常尴尬了...
继续追踪
更尴尬的是另一个服务炸了... ...
继续跟进,先把jemalloc配置过去,等下一次增长看下dump.
随着时间的推移遇见了各种各样的问题.
这次排查除了对之前积累的知识的运用,更多像是一次对搜索引擎熟练度的提升 :( .
但过程还是很不错的,也看到了一些自己以前没有接触过的知识.
深深感受到自己知识的匮乏,就像深渊(??)一样,逐渐深入才会发现不一样的风景.
生活中还是要多(xie)些bug才会更精彩的啊... ...
参考资料:
http://lovestblog.cn/blog/2015/05/12/direct-buffer/
https://yq.aliyun.com/articles/227924
https://github.com/jeffgriffith/native-jvm-leaks
glibc issue原问题:
https://serverfault.com/questions/341579/what-consumes-memory-in-java-process?newreg=394e0ea40e55493d8149010909011719
关于NMT的internal 包含了直接内存 不包含DirectMemory:
https://stackoverflow.com/questions/47309859/what-is-contained-in-code-internal-sections-of-jcmd
作者:fairjm
出处:https://www.cnblogs.com/fairjm/p/java_application_offheap_memory_leak_analyze.html
本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利.
热门评论
你好,關於你文中提到一半你換了tcmalloc, 就沒再發生情形了嗎?我看你的圖表,tcmalloc在9/20 8點多時,內存往下掉是服務有重啟是嗎?最近我也遇到類似的問題,但我的改法是將MALLOC_ARENA_MAX設為1,但運行一段時間後,有時會發生記憶體突然大幅上升1GB的情況,正在煩惱如何解決