Chr*_*oph 6 python floating-point numpy tensorflow
是否可以避免或发出 Numpy 类型从 integer 和32 bit float arrays
to自动转换的警告64 bit float arrays
?
我的用例是我正在开发一个大型分析包(20k 行 Python 和 Numpy),目前混合了 float 32 和 64 以及一些 int dtypes,很可能导致次优性能和内存浪费,基本上我想在任何地方都一致地使用 float32 。
我知道在Tensorflow 中结合两个不同dtype 的数组会产生错误 - 正是因为隐式转换为 float64 会导致性能不佳并且对所有计算张量都是“传染性的”,如果隐式完成,很难找到它被引入的位置。
寻找在numpy的一个选项,还是有办法的猴子补丁numpy的,这样它的行为在这方面像Tensorflow,即发出对隐式类型转换错误的操作一样np.add
,np.mul
等等,甚至更好,发出印有追溯警告,所以执行继续,但我看到它发生的地方。可能的?
免责声明:我没有以任何认真的方式对此进行测试,但这似乎是一条很有前途的路线。
操纵 ufunc 行为的一种相对轻松的方法似乎是子类化ndarray
和覆盖__array_ufunc__
。例如,如果您满足于捕捉任何产生的东西float64
class no64(np.ndarray):
def __array_ufunc__(self, ufunc, method, *inputs, **kwds):
ret = getattr(ufunc, method)(*map(np.asarray,inputs), **kwds)
# some ufuncs return multiple arrays:
if isinstance(ret,tuple):
if any(x.dtype == np.float64 for x in ret):
raise ValueError
return (*(x.view(no64) for x in ret),)
if ret.dtype == np.float64:
raise ValueError
return ret.view(no64)
x = np.arange(6,dtype=np.float32).view(no64)
Run Code Online (Sandbox Code Playgroud)
现在让我们看看我们的类可以做什么:
x*x
# no64([ 0., 1., 4., 9., 16., 25.], dtype=float32)
np.sin(x)
# no64([ 0. , 0.84147096, 0.9092974 , 0.14112 , -0.7568025 ,
# -0.9589243 ], dtype=float32)
np.frexp(x)
# (no64([0. , 0.5 , 0.5 , 0.75 , 0.5 , 0.625], dtype=float32), no64([0, 1, 2, 2, 3, 3], dtype=int32))
Run Code Online (Sandbox Code Playgroud)
现在让我们将它与 64 位参数配对:
x + np.arange(6)
# Traceback (most recent call last):
# File "<stdin>", line 1, in <module>
# File "<stdin>", line 9, in __array_ufunc__
# ValueError
np.multiply.outer(x, np.arange(2.0))
# Traceback (most recent call last):
# File "<stdin>", line 1, in <module>
# File "<stdin>", line 9, in __array_ufunc__
# ValueError
Run Code Online (Sandbox Code Playgroud)
什么不起作用(我确信还有更多)
np.outer(x, np.arange(2.0)) # not a ufunc, so slips through
# array([[0., 0.],
# [0., 1.],
# [0., 2.],
# [0., 3.],
# [0., 4.],
# [0., 5.]])
Run Code Online (Sandbox Code Playgroud)
__array_function__
似乎是抓住那些的东西。