最近一直在进行Doris的向量化计算引擎的开发工作,在进行CPU热点排查时,发现了存储层上出现的CPU热点问题。于是尝试通过SIMD的指令优化了这部分的CPU热点代码,取得了较好的性能优化效果。借用本篇手记记录下问题的发现,解决过程一些对于C/C++程序性能问题的一些解决思路,希望各位也能有所收获。
最近在进行Doris的部分查询调优工作,通过perf定位CPU执行热点时,发现了以下的热点部分:
perf的结果
这里通过perf可以看到,将近一半的CPU耗时损耗在BinaryDictPageDecoder::next_batch
与BinaryPlainPageDecoder::next_batch
这两个函数上。这两部分都是字符串列进行数据读取的解码部分,所以我们得研读一下这部分代码,来看看是否有可能得优化空间。
perf的热点分析
通过Perf进一步进入函数之中,看看哪部分占用了大量的CPU。由上图可以看到大量的CPU耗时都在解码时的内存分配之上了。尤其是int64_t RoundUpToPowerOf2
这个函数的计算,这个函数是为了计算内存分配时按照对齐的内存分配的逻辑。
这里得先了解Doris在Page级别是如何存储字符串类型的。这里有两种Page:
无论是DictPage与PlainPage,解码流程都是这样。Doris每次读取的数据量是1024行,所以每次的操作都是
好的,确认了问题,就开始研究解决方案。从直觉上说,将1024次零散的内存分配简化为一次大内存分配,肯定有较好的性能提升。
但是这样会导致一个很致命的问题:批量的内存分配无法保证内存的对齐,这会导致后续的访存的指令性能低下。但是为了保证内存的对齐,上面提到的尤其是int64_t RoundUpToPowerOf2
这个函数的计算是无法绕过的问题。
那既然无法绕过,我们就得想办法优化它了。这个计算是一个很简单的函数计算,所以笔者尝试是否能用SIMD指令优化这个计算流程。
SIMD是(Single instruction multiple data)的缩写,代表了通过单一一条指令就可以操作一批数据。通过这种方式,在相同的时钟周期内,CPU能够处理的数据的能力就大大增加了。
传统CPU的计算方式
上图是一个简单的乘法计算,我们可以看到:4个数字都需要进行乘3的计算。这需要执行
SIMD的计算方式
而通过SIMD指令则可以按批的方式来更快的处理数据,由上图可以看到。原先的12个指令,减少到了3个指令。当代的X86处理器通常都支持了MMX,SSE,AVX等SIMD指令,通过这样的方式来加快了CPU的计算。
当然SIMD指令也是有一定代价的,从上面的图中也能看出端倪。
更多关于SIMD指令相关的信息可以参照笔者在文末留下的参考资料。
通常生成SIMD指令的方式通常有两种:
自动向量化,也就是编译器自动去分析for循环是否能够向量化。如果可以的话,便自动生成向量化的代码,通常我们开始的-O3
优化便会开启自动向量化。
这种方式当然是最简单的,但是编译器毕竟没有程序员那样智能,所以对于自动向量化的优化是相对苛刻的,所以需要程序员写出足够亲和度的代码。
下面是自动向量化的一些tips:
当然,本身SIMD也通过库的方式进行了支持。我们也可以直接通过Intel提供的库来直接进行向量化编程,比如SSE
的API的头文件为xmmintrin.h
, AVX
的API头文件为immintrin.h
。这种实现方式最为高效,但是需要程序员熟悉SIMD的编码方式,并且并不通用。比如实现的AVX的向量化算法并不能在不支持AVX指令集的机器上运行,也无法用SSE指令集代替。
通过上一小节对SIMD指令的分析。接下来就是如何在Doris的代码上进行开发,并验证效果。
思路是最难的,写代码永远是最简单的。直接上笔者修改Doris的代码吧:
// use SIMD instruction to speed up call function `RoundUpToPowerOfTwo`
auto mem_size = 0;
for (int i = 0; i < len; ++i) {
mem_len[i] = BitUtil::RoundUpToPowerOf2Int32(mem_len[i], MemPool::DEFAULT_ALIGNMENT);
mem_size += mem_len[i];
}
这里利用了GCC的auto vectorized的能力,让上面的for循环能够进行向量化的计算。由于当前Doris默认的编译选项并不支持AVX指令集, 而原有的BitUtil::RoundUpToPowerOf2
的函数入参为Int64,这让只有128位的SSE指令有些捉襟见肘,所以这里笔者实现了BitUtil::RoundUpToPowerOf2Int32
的版本来加快这个过程.
// speed up function compute for SIMD
static inline size_t RoundUpToPowerOf2Int32(size_t value, size_t factor) {
DCHECK((factor > 0) && ((factor & (factor - 1)) == 0));
return (value + (factor - 1)) & ~(factor - 1);
}
如果是32位的计算,SSE指令支持128位的计算。也就是能够能够一次进行4个数字的操作。
完整的代码实现请参考这里的PR。
Coding完成之后,编译部署,进行测试。同样用Perf进行热点代码的观察,向量化之后,对应的代码的CPU占比显著下降,执行性能得到了提升。
no vectorized | vectorized | |
---|---|---|
DictPage | 23.42% | 14.82% |
PlainPage | 23.38% | 11.93% |
随后在单机SSB的模型上测试了一下效果,可以看到不少原先在存储层较慢的查询都得到了明显的加速效果。
SSB的测试效果
接着就是老方式:提出issue,把解决问题的代码贡献给Doris的官方代码仓库。完结撒花
Bingo! 到此为止,问题顺利解决,得到了一定的性能提升。
本文特别鸣谢社区小伙伴:
最后,也希望大家多多支持Apache Doris,多多给Doris贡献代码,感恩~~