开发者必备!线上内存泄漏排查的 8 个 Linux 实战工具

在 Java 应用开发中,内存泄漏堪称最让人头疼的 "隐形杀手"。当工单系统突然出现响应缓慢、频繁 GC 甚至服务不可用时,如何快速定位并解决内存泄漏问题?本文将以工单系统为例,详细介绍 8 个 Linux 环境下的内存排查工具,并结合实际案例说明如何构建完整的排查体系。

一、快速定位泄漏进程:jps+ps 组合拳

案例场景:某企业工单系统在高峰期出现响应超时,监控显示服务器内存使用率持续攀升。

# 使用jps命令查找Java进程,-l参数显示完整包名,过滤包含ticket-system的进程
jps -l | grep ticket-system  
# 输出:25468 com.yyb.TicketApplication

# 使用ps命令监控特定进程资源使用,-p指定PID,-o自定义输出格式
# %mem: 内存使用率, %cpu: CPU使用率, rss: 实际内存占用, vsz: 虚拟内存占用
watch -n 3 "ps -p 25468 -o pid,%mem,%cpu,rss,vsz,cmd"

关键发现:进程 RSS 内存持续增长,10 分钟内从 500MB 飙升至 1.8GB,CPU 使用率低于 5%,初步判断存在内存泄漏。

二、堆内存深度分析:jmap-heap 全景扫描

工具实战:对定位到的进程进行堆内存分析

# jmap -heap命令查看Java堆内存配置和使用情况
# grep -A 30 "Heap Usage"过滤出堆使用部分的30行输出
jmap -heap 25468 | grep -A 30 "Heap Usage"

输出摘要

PS Old Generation:
 capacity = 2147483648 (2048.0MB)  # 老年代总容量
 used = 1879048192 (1792.0MB)      # 老年代已使用
 free = 268435456 (256.0MB)        # 老年代剩余空间
 87.5% used                         # 老年代使用率

问题定位:老年代使用率高达 87.5%,且 Full GC 频率每 2 分钟一次,符合对象无法正常回收的内存泄漏特征。

三、GC 异常实时监控:jstat-gcutil 动态追踪

持续监控命令

# jstat -gcutil命令实时监控GC情况
# 1000: 采样间隔(毫秒),30: 采样次数,结果输出到日志文件
jstat -gcutil 25468 1000 30 > gc-monitor.log

关键指标分析

  • S0:Survivor0 区使用率
  • S1:Survivor1 区使用率
  • E:Eden 区使用率
  • O:老年代使用率
  • M:元空间使用率
  • YGC:年轻代 GC 次数
  • FGC:老年代 GC 次数
  • FGCT:老年代 GC 总耗时
  • GCT:垃圾回收总耗时

异常发现

  • Eden 区持续接近 100%,说明对象创建速度快
  • 老年代每 10 秒增长约 2%,增长速度异常
  • Full GC 次数快速增加,系统频繁进行全局垃圾回收

四、对象分布摸底:jmap-histo 活对象统计

实战操作

# jmap -histo:live命令生成存活对象统计信息
# 执行前会触发一次Full GC,确保统计的是真正存活的对象
jmap -histo:live 25468 > live-objects.log

# 查看占用内存前20的对象类型
# tail -n +3: 跳过前两行表头,sort -nrk 3: 按第三列数值倒序排序
tail -n +3 live-objects.log | sort -nrk 3 | head -n 20

异常输出

 num     #instances         #bytes  class name
----------------------------------------------
   1:      1256789       402172480  [Lcom.example.ticket.entity.WorkOrder;  # 工单对象数组
   2:       856743       274157760  java.util.HashMap$Node                   # HashMap节点
   3:       765432       244938240  java.lang.String                          # 字符串对象

问题暴露:工单对象(WorkOrder)实例数异常高,达到 125 万个,远超系统正常处理量(通常 < 10 万)。

五、内存趋势分析:free+vmstat 组合监控

系统级监控

# free -h: 以人类可读方式显示系统内存使用情况
# vmstat 1: 每秒采样一次系统虚拟内存统计信息
watch -n 2 "free -h; vmstat 1"

关键指标关注

free命令:

  • total: 总内存
  • used: 已使用内存
  • free: 空闲内存
  • available: 可用内存(包括可回收缓存)

vmstat命令:

  • si/so: 交换区换入 / 换出(高值表示内存压力大)
  • bi/bo: 块设备输入 / 输出(高值表示磁盘 IO 繁忙)
  • r: 运行队列长度(大于 CPU 核心数表示有进程等待)

异常现象

  • 系统available内存从 2GB 降至 500MB
  • si/so指标持续大于 100KB/s,表明系统开始频繁使用交换空间

六、Native 内存排查:pmap+jnativememory

案例场景:工单系统堆内存正常,但进程整体内存持续增长

# pmap命令显示进程内存映射,awk计算总Native内存
# RSS(Resident Set Size)表示实际驻留在物理内存中的字节数
pmap 25468 | awk '{sum += $3} END {print "Native Memory: " sum/1024 " MB"}'
# 输出:Native Memory: 1200 MB

# jcmd是JDK自带的多功能诊断工具
# VM.native_memory summary命令显示Java Native内存使用情况
jcmd 25468 VM.native_memory summary

关键发现

Native Memory Tracking:

Total: reserved=3456MB, committed=1856MB
-                 Java Heap (reserved=2048MB, committed=2048MB)
-                     Class (reserved=1024MB, committed=256MB)  # 类元数据占用
-                    Thread (reserved=256MB, committed=128MB)   # 线程栈占用
-                      Code (reserved=128MB, committed=64MB)     # JIT编译代码占用

通过jstack进一步分析发现,存在大量等待状态的线程(Thread),定位到数据库连接池配置问题导致连接未释放。

七、内存快照对比:jmap-dump+MAT 工具链

实战步骤

# 生成堆转储文件,format=b指定二进制格式
# live参数只转储存活对象,可减少文件大小
# 生产环境执行前建议先暂停流量,避免影响服务
jmap -dump:format=b,file=ticket-heapdump.bin,live 25468

# 将dump文件传输到本地,使用Memory Analyzer Tool(MAT)分析
# -Xmx4g指定MAT最大堆内存为4GB,根据dump文件大小调整
java -Xmx4g -jar mat.jar ticket-heapdump.bin

MAT 分析关键步骤

  1. 打开 "Leak Suspects" 报告,查看可能的内存泄漏点
  2. 使用 "Histogram" 对比不同时间点的对象数量变化
  3. 通过 "Dominator Tree" 找出占用内存最大的对象

问题定位

  • 发现WorkOrderCache类持有大量工单对象引用
  • 静态集合WorkOrderCache.cacheMap中缓存了 120 万个工单对象
  • 代码中存在缓存清除逻辑失效的问题

示例泄漏代码片段

// 错误示例:静态Map缓存导致的内存泄漏
public class WorkOrderCache {
    // 静态集合,生命周期与JVM一致
    private static final Map<Long, WorkOrder> cacheMap = new HashMap<>();
    
    // 添加工单到缓存
    public static void addToCache(WorkOrder order) {
        cacheMap.put(order.getId(), order);
    }
    
    // 错误:缺少清除机制,导致对象无法被回收
    // 正确做法:应添加基于时间或容量的清除策略
}

八、修复效果验证:重启前后对比法

验证脚本

# 修复前基线数据采集(每30秒采集一次,持续30分钟)
# &符号让命令在后台执行,避免阻塞终端
jstat -gcutil 25468 30000 60 > pre-fix-gc.log &

# 应用修复并重启服务
# ...

# 修复后数据采集(同样参数)
jstat -gcutil 25468 30000 60 > post-fix-gc.log &

# 使用gnuplot生成对比图表
# 设置图表大小、标题、坐标轴标签等
gnuplot << EOF
set terminal png size 1200,800
set output "gc-comparison.png"
set title "GC Performance Comparison Before/After Fix"
set xlabel "Time (minutes)"
set ylabel "Memory Usage (%)"
# 绘制修复前后老年代使用对比曲线
plot "pre-fix-gc.log" using 0:4 with lines title "Old Gen Before", \
     "post-fix-gc.log" using 0:4 with lines title "Old Gen After"
EOF

修复效果

  • 老年代内存使用率稳定在 40% 以下
  • Full GC 频率从每 2 分钟一次降为每小时一次
  • 系统响应时间从平均 500ms 降至 80ms

完整排查流程图解

总结

通过以上工具的组合使用,我们成功定位并解决了工单系统的内存泄漏问题。掌握这些工具的核心用法,建立 "进程级→堆内存→对象级" 的三级分析体系,能够帮助 Java 开发者快速诊断并解决各类内存问题。建议将本文作为排查指南收藏,在实际工作中灵活运用。

如果本文对您有所帮助,欢迎点赞收藏加关注!您的每一次点击都是对我最大的鼓励,更是我持续输出优质技术内容的强大动力~ 后续会分享更多 Java AI开发、线上排查和架构优化的干货,期待与您共同成长!

原文链接:,转发请注明来源!