Gon*_*nzo 22 python performance benchmarking types numpy
所以我做了一些测试并得到了奇怪的结果.
码:
import numpy as np
import timeit
setup = """
import numpy as np
A = np.ones((1000,1000,3), dtype=datatype)
"""
datatypes = "np.uint8", "np.uint16", "np.uint32", "np.uint64", "np.float16", "np.float32", "np.float64"
stmt1 = """
A = A * 255
A = A / 255
A = A - 1
A = A + 1
"""
#~ np.uint8 : 1.04969205993
#~ np.uint16 : 1.19391073202
#~ np.uint32 : 1.37279821351
#~ np.uint64 : 2.99286961148
#~ np.float16 : 9.62375889588
#~ np.float32 : 0.884994368045
#~ np.float64 : 0.920502625252
stmt2 = """
A *= 255
A /= 255
A -= 1
A += 1
"""
#~ np.uint8 : 0.959514497259
#~ np.uint16 : 0.988570167659
#~ np.uint32 : 0.963571471946
#~ np.uint64 : 2.07768933333
#~ np.float16 : 9.40085450056
#~ np.float32 : 0.882363984225
#~ np.float64 : 0.910147440048
stmt3 = """
A = A * 255 / 255 - 1 + 1
"""
#~ np.uint8 : 1.05919667881
#~ np.uint16 : 1.20249978404
#~ np.uint32 : 1.58037744789
#~ np.uint64 : 3.47520357571
#~ np.float16 : 10.4792515701
#~ np.float32 : 1.29654744484
#~ np.float64 : 1.80735079168
stmt4 = """
A[:,:,:2] *= A[:,:,:2]
"""
#~ np.uint8 : 1.23270964172
#~ np.uint16 : 1.3260807837
#~ np.uint32 : 1.32571002402
#~ np.uint64 : 1.76836543305
#~ np.float16 : 2.83364821535
#~ np.float32 : 1.31282323872
#~ np.float64 : 1.44151875479
stmt5 = """
A[:,:,:2] = A[:,:,:2] * A[:,:,:2]
"""
#~ np.uint8 : 1.38166223494
#~ np.uint16 : 1.49569114821
#~ np.uint32 : 1.53105315419
#~ np.uint64 : 2.03457943366
#~ np.float16 : 3.01117795524
#~ np.float32 : 1.51807271679
#~ np.float64 : 1.7164808877
stmt6 = """
A *= 4
A /= 4
"""
#~ np.uint8 : 0.698176392658
#~ np.uint16 : 0.709560468038
#~ np.uint32 : 0.701653066443
#~ np.uint64 : 1.64199069295
#~ np.float16 : 4.86752675499
#~ np.float32 : 0.421001675475
#~ np.float64 : 0.433056710408
stmt7 = """
np.left_shift(A, 2, A)
np.right_shift(A, 2, A)
"""
#~ np.uint8 : 0.381521115341
#~ np.uint16 : 0.383545967785
#~ np.uint32 : 0.386147272415
#~ np.uint64 : 0.665969478824
for stmt in [stmt1, stmt2, stmt3, stmt4, stmt5, stmt6, stmt7]:
print stmt
for d in datatypes:
s = setup.replace("datatype", d)
T = timeit.Timer(stmt=stmt, setup=s)
print d,":", min(T.repeat(number=30))
print
print
Run Code Online (Sandbox Code Playgroud)
为什么float16这么慢?为什么float32这么快?它通常比整数运算更快.
如果您有任何相关的性能提示,我会很高兴听到它们.
这是Windows 8 64位上的python 2.6.6 32位.数字为Numpy 1.6,Numpy 1.7相似.现在将测试MKL优化版本:http://www.lfd.uci.edu/~gohlke/pythonlibs/#numpy
编辑:事实证明MKL版本在某些浮点情况下略快一些,但有时整数操作速度要慢很多:
stmt2 = """
A *= 255
A /= 255
A -= 1
A += 1
"""
#np1.6
#~ np.uint8 : 0.959514497259
#~ np.uint16 : 0.988570167659
#~ np.uint32 : 0.963571471946
#~ np.uint64 : 2.07768933333
#~ np.float16 : 9.40085450056
#~ np.float32 : 0.882363984225
#~ np.float64 : 0.910147440048
# np1.7
#~ np.uint8 : 0.979
#~ np.uint16 : 1.010
#~ np.uint32 : 0.972
#~ np.uint64 : 2.081
#~ np.float16 : 9.362
#~ np.float32 : 0.882
#~ np.float64 : 0.918
# np1.7 mkl
#~ np.uint8 : 1.782
#~ np.uint16 : 1.145
#~ np.uint32 : 1.265
#~ np.uint64 : 2.088
#~ np.float16 : 9.029
#~ np.float32 : 0.800
#~ np.float64 : 0.866
Run Code Online (Sandbox Code Playgroud)
Bál*_*adi 20
半精度算术(float16)是必须由numpy"模拟"的东西,因为在底层C语言(以及适当的处理器指令)中没有相应的类型.另一方面,使用本机数据类型可以非常有效地完成单精度(float32)和双精度(float64)操作.
对于单精度操作的良好性能:现代处理器具有用于矢量化浮点算术(例如AVX)的有效单元,因为它还具有良好的多媒体性能.
小智 10
大多数常见CPU不直接支持16位浮点数(尽管显卡供应商显然涉及此数据类型,因此我希望GPU最终支持它).我希望以相对缓慢的方式模仿它们.Google告诉我,float16曾经是硬件依赖的,有些人想为不支持它的硬件模仿它,尽管我没有发现是否真的发生了什么.
另一方面,32位浮点数不仅本地支持,您还可以使用SIMD指令集扩展对它们进行许多操作的向量化,这大大降低了基准测试操作的开销.例外是乱码数据,但在这种情况下,float32与int32相同,并且两者都可以使用相同的SIMD指令来加载和存储更大的内存块.
虽然还有用于整数数学的SIMD指令,但它们不太常见(例如SEE在稍后的版本中引入它们而不是浮点版本)并且通常不太复杂.我的猜测是(你的构建)NumPy没有对你来说较慢的操作的SIMD实现.或者,整数操作可能不如优化:浮点数用于许多易于矢量化的应用程序,其性能很重要(例如图像/媒体/视频和解码),因此它们可能更加优化.