强制 pad_sequence 达到一定长度

Jai*_*tas 7 python deep-learning recurrent-neural-network pytorch

我有一组张量正在填充,pad_sequence但我需要保证它们的固定长度。我现在不能这样做,因为pad_sequence会将较短的张量延伸到最长的张量,如果最长的张量没有达到我想要的长度,我就完蛋了。我认为解决方案可以是向其中一个张量添加零以填充到我想要的长度,这样填充的结果将具有我想要的长度。我不知道该怎么做

假设我有一个形状为torch.Size([44])且所需长度为 50 的张量,如何向其添加零以达到 的形状torch.Size([50])?无论初始张量形状如何,都需要保持这一点。

uke*_*emi 11

您可以像这样实现您的逻辑:

from torch.nn.utils.rnn import pad_sequence

# Desired max length
max_len = 50

# 100 seqs of variable length (< max_len)
seq_lens = torch.randint(low=10,high=44,size=(100,))
seqs = [torch.rand(n) for n in seq_lens]

# pad first seq to desired length
seqs[0] = nn.ConstantPad1d((0, max_len - seqs[0].shape[0]), 0)(seqs[0])

# pad all seqs to desired length
seqs = pad_sequence(seqs)
Run Code Online (Sandbox Code Playgroud)