小编Chr*_*tte的帖子

登录 Heroku CLI 时 IP 地址不匹配

以前我可以使用heroku login. 但现在我收到一个IP 地址不匹配错误。我应该如何解决这个问题?

heroku heroku-cli

37
推荐指数
6
解决办法
2万
查看次数

mac 上有两个不同的 ruby​​ 版本?

我正在本地设置一个简单的 ruby​​ on rails 应用程序。看来我在 mac 上有两个不同版本的 ruby​​,我只想使用一个。当我跑的时候bundle install,它说Your Ruby version is 2.7.1, but your Gemfile specified 2.6.3。然后,我将ruby '2.6.3'gemfile 中的行更改为ruby '2.7.1'. 有了这个它运行bundle install正常。但是,当我运行时,rails server它说Your Ruby version is 2.6.3, but your Gemfile specified 2.7.1.

为什么我的 Ruby 版本有两个不同的值?我如何让它只使用一个版本的 Ruby?

如果相关,我在 mac 上并使用自制软件安装了 ruby​​。如果我ruby -v在终端中运行,它会显示ruby 2.7.1p83 (2020-03-31 revision a0c7c23c9c) [x86_64-darwin19]. 我不确定为什么它说我有 ruby​​ 2.6.3。

ruby macos homebrew ruby-on-rails

5
推荐指数
1
解决办法
2198
查看次数

nn.Module 的 Pytorch 子类没有属性“参数”

Python 版本:Python 3.8.5
Pytorch 版本:'1.6.0'

我正在定义 LSTM,它是 nn.Module 的子类。我正在尝试创建优化器,但收到以下错误:torch.nn.modules.module.ModuleAttributeError: 'LSTM' object has no attribute 'paramters'

我有两个代码文件,train.py 和 lstm_class.py(包含 LSTM 类)。我将尝试制作一个最小的工作示例,如果有任何其他信息有帮助,请告诉我。



lstm_class.py中的代码:

import torch.nn as nn

class LSTM(nn.Module):

    def __init__(self, vocab_size, embedding_dim, hidden_dim, n_layers, drop_prob=0.2):
        super(LSTM, self).__init__()

        # network size parameters
        self.n_layers = n_layers
        self.hidden_dim = hidden_dim
        self.vocab_size = vocab_size
        self.embedding_dim = embedding_dim


        # the layers of the network
        self.embedding = nn.Embedding(self.vocab_size, self.embedding_dim)
        self.lstm = nn.LSTM(self.embedding_dim, self.hidden_dim, self.n_layers, dropout=drop_prob, batch_first=True)
        self.dropout = nn.Dropout(drop_prob)
        self.fc = nn.Linear(self.hidden_dim, self.vocab_size)



    def forward(self, input, …
Run Code Online (Sandbox Code Playgroud)

python neural-network python-3.x pytorch

1
推荐指数
1
解决办法
4567
查看次数