我有以下x ++模式下与VS 2019(版本16.8.6)一起编译的C ++ 17代码:
struct __declspec(align(16)) Vec2f { float v[2]; };
struct __declspec(align(16)) Vec4f { float v[4]; };
static constexpr std::uint64_t N = 100'000'000ull;
const Vec2f p{};
Vec4f acc{};
// Using virtual method:
for (std::uint64_t i = 0; i < N; ++i)
acc += foo->eval(p);
// Using function pointer:
for (std::uint64_t i = 0; i < N; ++i)
acc += eval_fn(p);
在第一个循环中,foo
是std::shared_ptr
和eval()
是一个虚拟方法:
__declspec(noinline) virtual Vec4f eval(const Vec2f& p) const noexcept
{
return { p.v[0], p.v[1], p.v[0], p.v[1] };
}
在第二个循环中,eval_fn
是指向以下函数的指针:
__declspec(noinline) Vec4f eval_fn_impl(const Vec2f& p) noexcept
{
return { p.v[0], p.v[1], p.v[0], p.v[1] };
}
最后,我有两个operator+=
for的实现Vec4f
:
使用显式循环实现的一种:
Vec4f& operator+=(Vec4f& lhs, const Vec4f& rhs) noexcept
{
for (std::uint32_t i = 0; i < 4; ++i)
lhs.v[i] += rhs.v[i];
return lhs;
}
并使用SSE内在函数实现:
Vec4f& operator+=(Vec4f& lhs, const Vec4f& rhs) noexcept
{
_mm_store_ps(lhs.v, _mm_add_ps(_mm_load_ps(lhs.v), _mm_load_ps(rhs.v)));
return lhs;
}
您可以在下面找到该测试的完整(独立的,仅Windows)代码。
以下是在AMD Threadripper 3970X CPU(Zen 2架构)上执行时,两个循环的生成代码,以及以毫秒为单位的运行时间(对于100M迭代):
通过SSE的内在实现operator+=(Vec4f&, const Vec4f&)
:
// Using virtual method: 649 ms
$LL4@main:
mov rax, QWORD PTR [rdi] // fetch vtable base pointer (rdi = foo)
lea r8, QWORD PTR p$[rsp] // r8 = &p
lea rdx, QWORD PTR $T3[rsp] // not sure what $T3 is (some kind of temporary, but why?)
mov rcx, rdi // rcx = this
call QWORD PTR [rax] // foo->eval(p)
addps xmm6, XMMWORD PTR [rax]
sub rbp, 1
jne SHORT $LL4@main
// Using function pointer: 602 ms
$LL7@main:
lea rdx, QWORD PTR p$[rsp] // rdx = &p
lea rcx, QWORD PTR $T2[rsp] // same question as above
call rbx // eval_fn(p)
addps xmm6, XMMWORD PTR [rax]
sub rsi, 1
jne SHORT $LL7@main
通过显式循环实现operator+=(Vec4f&, const Vec4f&)
:
// Using virtual method: 167 ms [3.5x to 4x FASTER!]
$LL4@main:
mov rax, QWORD PTR [rdi]
lea r8, QWORD PTR p$[rsp]
lea rdx, QWORD PTR $T5[rsp]
mov rcx, rdi
call QWORD PTR [rax]
addss xmm9, DWORD PTR [rax]
addss xmm8, DWORD PTR [rax+4]
addss xmm7, DWORD PTR [rax+8]
addss xmm6, DWORD PTR [rax+12]
sub rbp, 1
jne SHORT $LL4@main
// Using function pointer: 600 ms
$LL7@main:
lea rdx, QWORD PTR p$[rsp]
lea rcx, QWORD PTR $T4[rsp]
call rbx
addps xmm6, XMMWORD PTR [rax]
sub rsi, 1
jne SHORT $LL7@main
(在AMD禅2拱,据我所知,addss
并且addps
指令具有3个周期的等待时间,和最多两个这样的指令可以同时执行)。
使我感到困惑的情况是使用以下方法的虚拟方法和显式循环实现operator+=
:
为什么它比其他三个变体快3.5倍到4倍?
这里有哪些相关的建筑效果?在循环的后续迭代中,寄存器之间的依赖性减少了吗?还是有关缓存的运气不好?
完整的源代码:
#include <Windows.h>
#include <cstdint>
#include <cstdio>
#include <memory>
#include <xmmintrin.h>
struct __declspec(align(16)) Vec2f
{
float v[2];
};
struct __declspec(align(16)) Vec4f
{
float v[4];
};
Vec4f& operator+=(Vec4f& lhs, const Vec4f& rhs) noexcept
{
#if 0
_mm_store_ps(lhs.v, _mm_add_ps(_mm_load_ps(lhs.v), _mm_load_ps(rhs.v)));
#else
for (std::uint32_t i = 0; i < 4; ++i)
lhs.v[i] += rhs.v[i];
#endif
return lhs;
}
std::uint64_t get_timer_freq()
{
LARGE_INTEGER frequency;
QueryPerformanceFrequency(&frequency);
return static_cast<std::uint64_t>(frequency.QuadPart);
}
std::uint64_t read_timer()
{
LARGE_INTEGER count;
QueryPerformanceCounter(&count);
return static_cast<std::uint64_t>(count.QuadPart);
}
struct Foo
{
__declspec(noinline) virtual Vec4f eval(const Vec2f& p) const noexcept
{
return { p.v[0], p.v[1], p.v[0], p.v[1] };
}
};
using SampleFn = Vec4f (*)(const Vec2f&);
__declspec(noinline) Vec4f eval_fn_impl(const Vec2f& p) noexcept
{
return { p.v[0], p.v[1], p.v[0], p.v[1] };
}
__declspec(noinline) SampleFn make_eval_fn()
{
return &eval_fn_impl;
}
int main()
{
static constexpr std::uint64_t N = 100'000'000ull;
const auto timer_freq = get_timer_freq();
const Vec2f p{};
Vec4f acc{};
{
const auto foo = std::make_shared<Foo>();
const auto start_time = read_timer();
for (std::uint64_t i = 0; i < N; ++i)
acc += foo->eval(p);
std::printf("foo->eval: %llu ms\n", 1000 * (read_timer() - start_time) / timer_freq);
}
{
const auto eval_fn = make_eval_fn();
const auto start_time = read_timer();
for (std::uint64_t i = 0; i < N; ++i)
acc += eval_fn(p);
std::printf("eval_fn: %llu ms\n", 1000 * (read_timer() - start_time) / timer_freq);
}
return acc.v[0] + acc.v[1] + acc.v[2] + acc.v[3] > 0.0f ? 1 : 0;
}
我正在Intel Haswell处理器上对此进行测试,但是性能结果相似,我猜想原因也相似,但要花点时间。Haswell和Zen 2之间当然会有区别,但是据我所知,我为此归咎于这两个方面。
问题是:虚拟方法/被称为“通过指针的函数” /无论它是什么,都执行4个标量存储,但是主循环随后执行了该相同内存的向量加载。从存储到加载的转发可以处理先存储值然后立即加载的各种情况,但通常不是这样的情况,即加载取决于多个存储(更一般而言:依赖于仅部分供应的存储的加载)加载尝试加载的数据)。从理论上讲,这是可能的,但这并不是当前微体系结构的功能。
作为实验,请更改虚拟方法中的代码以使用向量存储。例如:
__declspec(noinline) virtual Vec4f eval(const Vec2f& p) const noexcept
{
Vec4f r;
auto pv = _mm_load_ps(p.v);
_mm_store_ps(r.v, _mm_shuffle_ps(pv, pv, _MM_SHUFFLE(1, 0, 1, 0)));
return r;
}
在我的PC上,时间与快速版本保持一致,该版本支持以下假设:问题是由多个标量存储馈入向量负载引起的。
从8字节加载16字节Vec2f
并不完全合法,可以在必要时解决。仅使用SSE(1)有点烦人,SSE3对于_mm_loaddup_pd
(aka movddup
)来说是不错的选择。
如果MSVCVec4f
通过寄存器而不是通过指针返回结果,就不会存在此问题,但是除了将返回类型更改为之外,我不知道如何说服它这样做__m128
。__vectorcall
也有帮助,但是使MSVC在多个寄存器中返回结构,然后在调用程序中将它们与多余的混编重组。它比任何一个快速选项都有些混乱并且速度较慢,但是仍然比存储转发失败的版本更快。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句