我正在尝试通过实施本文中描述的加权损失方法来改进我制作的 CNN 。为此,我研究了这个笔记本,它实现了论文中描述的方法的伪代码。
RuntimeError: One of the differentiated Tensors appears to not have been used in the graph. Set allow_unused=True if this is the desired behavior当将他们的代码转换为我的模型时,我在使用时遇到了错误torch.autograd.grad()。
我的代码和错误位于倒数第二行:
for epoch in range(1): #tqdm(range(params['epochs'])):
model.train()
text_t, labels_t = next(iter(train_iterator))
text_t = to_var(text_t, requires_grad=False)
labels_t = to_var(labels_t, requires_grad=False)
dummy = L2RWCNN(INPUT_DIM, EMBEDDING_DIM, N_FILTERS, FILTER_SIZES, OUTPUT_DIM,
DROPOUT, PAD_IDX)
dummy.state_dict(model.state_dict())
dummy.cuda()
y_f_hat = dummy(text_t)
cost = F.binary_cross_entropy_with_logits(y_f_hat.squeeze(), labels_t, reduce = False)
eps = to_var(torch.zeros(cost.size()))
l_f_meta = torch.sum(cost * eps) …Run Code Online (Sandbox Code Playgroud) python gradient-descent conv-neural-network pytorch autograd
我正在使用 React 上下文来保存我的应用程序的身份验证状态。目前,我遇到了一个问题,每当我尝试点击 时/groups/:id,它总是/login首先将我重定向到/UserDash. 发生这种情况是因为我的 AuthProvider 的上下文更新得不够快,而我的私有路由利用 AuthContext 来决定是否重定向。
<AuthProvider>
<Router>
<Switch>
<LoggedRoute exact path = "/" component = {Home}/>
<Route exact path = "/login" component = {Login}/>
<PrivateRoute exact path = "/groups/:id" component = {GroupDash}/>
<PrivateRoute exact path = "/UserDash" component = {UserDash}/>
</Switch>
</Router>
</AuthProvider>
Run Code Online (Sandbox Code Playgroud)
在另一个文件中:
export const AuthContext = React.createContext();
export const AuthProvider = ({children}) => {
const [currentUser, setCurrentUser] = useState(null);
useEffect(() => {
firebaseApp.auth().onAuthStateChanged(setCurrentUser);
},[]);
return (
<AuthContext.Provider
value …Run Code Online (Sandbox Code Playgroud) firebase reactjs react-router firebase-authentication react-context
我目前正在使用这个存储库来执行 NLP 并使用我自己的数据集了解有关 CNN 的更多信息,但我不断遇到有关形状不匹配的错误:
ValueError: Target size (torch.Size([64])) must be the same as input size (torch.Size([15]))
10 }
11 for epoch in tqdm(range(params['epochs'])):
---> 12 train_loss, train_acc = train(model, train_iterator, optimizer, criterion)
13 valid_loss, valid_acc = evaluate(model, valid_iterator, criterion)
14 epoch_mins, epoch_secs = epoch_time(start_time, end_time)
57 print("PredictionShapeAfter:")
58 print(predictions.shape)
---> 59 loss = criterion(predictions, batch.l)
60
61 acc = binary_accuracy(predictions, batch.l)
Run Code Online (Sandbox Code Playgroud)
经过一番挖掘,我发现我的 CNN 预测与其所比较的训练数据事实大小不同:
Input Shape:
torch.Size([15, 64])
Truth Shape:
torch.Size([64])
embedded unsqueezed: torch.Size([15, 1, 64, 100]) …Run Code Online (Sandbox Code Playgroud) 我正在尝试在 R 中进行匿名递归,并使用管道来学习。下面的代码运行良好
sorttt <- function(list){
if (length(list) == 0) c() else c(max(list), Recall(list[list < max(list)]))
}
example %>% sorttt
Run Code Online (Sandbox Code Playgroud)
但这段代码出错了,并出现以下错误:Error in example %>% function(list) { : invalid formal argument list for "function"
example %>% function(list){if (length(list) == 0) c() else c(max(list), Recall(list[list < max(list)]))}
Run Code Online (Sandbox Code Playgroud)
有谁知道为什么这两者可能表现不同?这些在逻辑上似乎是同一件事。
我有一个包含 n 列的数据框,如下所示,所有列都是数字(例如,下面只有 3 个,但实际的数字未知)。
col_1 col_2 col_3
1 3 7
3 8 9
5 5 2
8 10 1
11 9 2
Run Code Online (Sandbox Code Playgroud)
我试图根据这个方程转换每一列的数据:(x-min(col)/(max(col)-min(col))以便每个元素都根据列中的值进行缩放。
有没有办法在不使用 for 循环遍历每一列的情况下做到这一点?将 sapply 或 tapply 在这里工作吗?