AVX2中的_mm_alignr_epi8(PALIGNR)等价物

ela*_*dan 7 x86 simd intrinsics avx avx2

在SSE3中,PALIGNR指令执行以下操作:

PALIGNR将目标操作数(第一个操作数)和源操作数(第二个操作数)连接成一个中间复合,将复合体以字节粒度向右移动一个常量立即数,并将右对齐结果提取到目标中.

我目前正在移植我的SSE4代码以使用AVX2指令并使用256位寄存器而不是128位寄存器.天真地,我相信内在函数_mm256_alignr_epi8(VPALIGNR)执行的操作与_mm_alignr_epi8仅256位寄存器相同.但遗憾的是,事实并非如此.实际上,_mm256_alignr_epi8将256位寄存器视为2个128位寄存器,并在两个相邻的128位寄存器上执行2次"对齐"操作.一次有效地执行与_mm_alignr_epi82个寄存器相同的操作.这里最清楚地说明了:_mm256_alignr_epi8

目前我的解决方案是_mm_alignr_epi8通过将ymm(256位)寄存器分成两个xmm(128位)寄存器(高和低)来继续使用,如下所示:

__m128i xmm_ymm1_hi = _mm256_extractf128_si256(ymm1, 0);
__m128i xmm_ymm1_lo = _mm256_extractf128_si256(ymm1, 1);
__m128i xmm_ymm2_hi = _mm256_extractf128_si256(ymm2, 0);
__m128i xmm_ymm_aligned_lo = _mm_alignr_epi8(xmm_ymm1_lo, xmm_ymm1_hi, 1);
__m128i xmm_ymm_aligned_hi = _mm_alignr_epi8(xmm_ymm2_hi, xmm_ymm1_lo, 1);
__m256i xmm_ymm_aligned = _mm256_set_m128i(xmm_ymm_aligned_lo, xmm_ymm_aligned_hi);
Run Code Online (Sandbox Code Playgroud)

这有效,但必须有更好的方法,对吧?是否有更多"通用"AVX2指令应该用来获得相同的结果?

Ste*_*non 5

你用palignr什么?如果只是为了处理数据错位,只需使用错位加载;它们在现代英特尔 µ 架构上通常“足够快”(并且会为您节省大量代码大小)。

如果您palignr出于其他原因需要类似行为,您可以简单地利用未对齐的负载支持以无分支的方式执行此操作。除非您完全受加载存储限制,否则这可能是首选的习惯用法。

static inline __m256i _mm256_alignr_epi8(const __m256i v0, const __m256i v1, const int n)
{
    // Do whatever your compiler needs to make this buffer 64-byte aligned.
    // You want to avoid the possibility of a page-boundary crossing load.
    char buffer[64];

    // Two aligned stores to fill the buffer.
    _mm256_store_si256((__m256i *)&buffer[0], v0);
    _mm256_store_si256((__m256i *)&buffer[32], v1);

    // Misaligned load to get the data we want.
    return _mm256_loadu_si256((__m256i *)&buffer[n]);
}
Run Code Online (Sandbox Code Playgroud)

如果你能提供有关的详细信息如何你使用完全相同palignr,我也许可以提供更多的帮助。


Pau*_*l R 3

我能想到的唯一解决方案是:

static inline __m256i _mm256_alignr_epi8(const __m256i v0, const __m256i v1, const int n)
{
  if (n < 16)
  {
    __m128i v0h = _mm256_extractf128_si256(v0, 0);
    __m128i v0l = _mm256_extractf128_si256(v0, 1);
    __m128i v1h = _mm256_extractf128_si256(v1, 0);
    __m128i vouth = _mm_alignr_epi8(v0l, v0h, n);
    __m128i voutl = _mm_alignr_epi8(v1h, v0l, n);
    __m256i vout = _mm256_set_m128i(voutl, vouth);
    return vout;
  }
  else
  {
    __m128i v0h = _mm256_extractf128_si256(v0, 1);
    __m128i v0l = _mm256_extractf128_si256(v1, 0);
    __m128i v1h = _mm256_extractf128_si256(v1, 1);
    __m128i vouth = _mm_alignr_epi8(v0l, v0h, n - 16);
    __m128i voutl = _mm_alignr_epi8(v1h, v0l, n - 16);
    __m256i vout = _mm256_set_m128i(voutl, vouth);
    return vout;
  }
}
Run Code Online (Sandbox Code Playgroud)

我认为这与您的解决方案几乎相同,只是它还处理 >= 16 字节的移位。

  • 继续 Jason 所写的内容,“palignr”是一种处理未对齐数据的真正不成熟的方法(因为移位量是立即的,而不是从寄存器提供的)。英特尔似乎已经意识到这一点,并且只是使未对齐的数据访问速度足够快,以至于它(大部分)不再是问题。 (2认同)
  • @PaulR:为此,您仍然可以在 AVX 寄存器的两半上独立使用“palignr”,并使用与 SSE 相同的算法——只需在寄存器的两半中执行两批独立的工作。我同意拥有完整的 32B 转变会很好,但就面积/功率/复杂性而言,这显然是不合理的。英特尔“完全可以”添加该操作,但它的效率“低于”未对齐的负载解决方案。鉴于 Sandy Bridge 中的负载带宽加倍,这是一个非常合理的解决方法。 (2认同)