小编Dav*_*ian的帖子

在 PyTorch 中,grad_fn 属性到底存储什么以及如何使用?

在 PyTorch 中,Tensor类有一个grad_fn属性。这引用了用于获取张量的操作:例如, if a = b + 2, a.grad_fnwill be AddBackward0。但“参考”到底是什么意思呢?

检查AddBackward0usinginspect.getmro(type(a.grad_fn))将指出 的唯一基类AddBackward0object此外,在源代码grad_fn中找不到该类的源代码(事实上,在 中可能遇到的任何其他类) !

所有这些让我想到以下问题:

  1. 反向传播期间到底存储了什么grad_fn以及如何调用它?
  2. 为什么存储的对象grad_fn没有某种通用的超类,为什么 GitHub 上没有它们的源代码?

python oop pytorch

18
推荐指数
1
解决办法
2万
查看次数

在SIMD扩展流(SSE)中,流代表什么?

我到处都看过,但仍然不知道。我知道您可以与流建立两个关联:

  • 支持数据存储的包装程序是消费者和供应商之间的抽象层
  • 数据随着时间而变得可用,而不是一次全部可用

SIMD代表单指令,多数据;在文献中,这些指令通常被称为来自指令流。这对应于第二关联。

但是,我不完全理解为什么在SIMD扩展中(或者在多处理器中)进行流传输。这些说明来自流,但是它们可以来自其他任何地方吗?我们是否或者只有SIMD扩展或只有多处理器?

Tl; dr:CPU指令可以不流化,即不是来自流吗?

sse simd stream multiprocessing isa

2
推荐指数
1
解决办法
37
查看次数

标签 统计

isa ×1

multiprocessing ×1

oop ×1

python ×1

pytorch ×1

simd ×1

sse ×1

stream ×1