使用G1时,分配性能是否会在大量实时实例中降低?

mal*_*mut 7 java performance garbage-collection g1gc

在我们的某些应用程序从CMS转移到G1时,我注意到其中一个应用程序的启动时间延长了4倍.由于GC循环导致的应用程序停止时间不是原因.在比较应用程序行为时,我发现这个在启动后(在一堆12G中)携带了高达2.5亿个活动对象.进一步调查显示,在前500万次分配期间,应用程序的速度正常,但随着活动对象池的增大,性能会越来越差.

进一步的实验表明,一旦达到一定的活动对象阈值,使用G1时新对象的分配确实会减慢.我发现活动对象数量增加一倍似乎在分配所需的时间上增加了大约2.5倍.对于其他GC引擎,因子只有2.这确实可以解释减速.

有两个问题让我怀疑这个结论:

  • 大约约500万个实时实例的阈值似乎与整个堆有关.对于G1,我原以为任何这样的降级阈值都与一个区域有关,而不是整个堆.
  • 我四处寻找网上的文件,解释(或至少说明)这种行为,但我没有找到.我甚至没有找到"超过xxx活对象是邪恶的"这类建议.

所以:如果有人可以告诉我我的观察结果是正确的,并且可能指向一些解释性文件,或者某些有关该领域的建议,那将是很棒的.或者,有人告诉我我做错了什么.:)

这是一个简短的测试用例(多次运行,取平均值,扣除显示的垃圾收集时间):

import java.util.HashMap;

/**
  * Allocator demonstrates the dependency between number of live objects
  * and allocation speed, using various GC algorithms.
  * Call it using, e.g.:
  *   java Allocator -Xmx12g -Xms12g -XX:+PrintGCApplicationStoppedTime -XX:+UseG1GC
  *   java Allocator -Xmx12g -Xms12g -XX:+PrintGCApplicationStoppedTime
  * Deduct stopped times from execution time.
  */
public class Allocator {

public static void main(String[] args) {
    timer(2000000, true);
    for (int i = 1000000; i <= 32000000; i*=2) {
        timer(i, false);
    }
    for (int i = 32000000; i >= 1000000; i/=2) {
        timer(i, false);
    }
}

private static void timer(int num, boolean warmup) {
    long before = System.currentTimeMillis();
    Allocator a = new Allocator();
    int size = a.allocate(num);
    long after = System.currentTimeMillis();
    if (!warmup) {
        System.out.println("Time needed for " + num + " allocations: "
           + (after - before) + " millis. Map size = " + size);
    }
}

private int allocate(int numElements) {
    HashMap<Integer, String> map = new HashMap<>(2*numElements);
    for (int i = 0; i < numElements; i++) {
        map.put(i, Integer.toString(i));
    }
    return map.size();
}

}
Run Code Online (Sandbox Code Playgroud)

the*_*472 1

正如上面评论中所讨论的:

您的测试用例确实预先分配了非常大的引用数组,这些数组寿命很长,并且基本上占据了自己的区域(它们可能最终位于旧一代或巨大的区域中),然后用数百万个可能的附加对象填充它们住在不同的地区。

这会产生大量跨区域引用,G1 可以处理适量的引用,但每个区域不能处理数百万个引用。

G1 启发式也认为高度互连的区域收集起来成本很高,因此即使它们完全由垃圾组成,也不太可能被收集。

将对象分配在一起以减少跨区域引用。

不人为地延长它们的生命周期(例如,通过将它们放入某种缓存中)也允许它们在年轻代 GC 期间死亡,这比旧区域更容易收集,旧区域本质上会累积从不同区域引用的对象。

因此,总而言之,您的测试用例对 G1 基于区域的性质相当不利。