小编Raj*_*mal的帖子

Keras文本预处理 - 将Tokenizer对象保存到文件以进行评分

我通过以下步骤(广泛地)使用Keras库训练了情绪分类器模型.

  1. 使用Tokenizer对象/类将Text语料库转换为序列
  2. 使用model.fit()方法构建模型
  3. 评估此模型

现在,使用此模型进行评分,我能够将模型保存到文件并从文件加载.但是我没有找到将Tokenizer对象保存到文件的方法.如果没有这个,我每次需要得到一个句子时都必须处理语料库.有没有解决的办法?

nlp machine-learning neural-network deep-learning keras

36
推荐指数
3
解决办法
2万
查看次数

在 Mongoose 中使用连接和过滤器进行查询

我是 Mongodb 的新手,并且在我使用 MEAN 堆栈构建的 Web 应用程序中使用它。我的目标是通过连接两个表并对它们应用过滤条件来查询它们。例如:我有两个表 - 自行车-自行车 ID、注册号、品牌、型号和预约 - 预约日期、状态、自行车(参考自行车对象),我只想显示那些没有预约状态=的自行车“已预订”。我想在 Mongoose 中完成以下 SQL。

Select bike.* from Bike inner join Appointment on Bike.BikeID = Appointment.BikeID and Appointment.Status != 'Booked'
Run Code Online (Sandbox Code Playgroud)

我正在使用以下代码,但没有得到所需的结果。有人可以帮我解决这个问题吗?

app.get('/api/getbikeappo*',function(req,res){
        var msg="";
        //.find({cust:req.query._id})
        //.populate('cust','email')
        ubBike.aggregate([
                {
                    $match:
                    {
                        cust : req.query._id
                    }
                },
                {
                    $lookup:
                    {
                        from: "appos",
                        localField: "_id",
                        foreignField: "bike",
                        as : "appointments"
                    }
                },
                {
                    $match:
                    {
                        "appointments" : {$eq : []}
                    }
                }
            ])
            .exec(function(err,bikes){
                 res.send(bikes);
                if(err) throw err;
            });
    }); 
Run Code Online (Sandbox Code Playgroud)
bikes - collection …
Run Code Online (Sandbox Code Playgroud)

mongoose mongodb aggregation-framework mean-stack mongodb-aggregation

3
推荐指数
1
解决办法
6402
查看次数

运行时错误:预期隐藏 [0] 大小 (2, 20, 256),得到 (2, 50, 256)

我在尝试使用 LSTM (RNN) 构建多类文本分类网络时遇到此错误。该代码似乎在代码的训练部分运行良好,而在验证部分抛出错误。下面是网络架构和训练代码。感谢这里的任何帮助。

我尝试采用使用 RNN 预测情绪的现有代码,并最终将 sigmoid 替换为 softmax 函数,并将损失函数从 BCE Loss 替换为 NLLLoss()


  def forward(self, x, hidden):
    """
    Perform a forward pass of our model on some input and hidden state.
    """
    batch_size = x.size(0)
    embeds = self.embedding(x)
    lstm_out,hidden= self.lstm(embeds,hidden)

     # stack up lstm outputs
    lstm_out = lstm_out.contiguous().view(-1, self.hidden_dim)

    # dropout and fully-connected layer
    out = self.dropout(lstm_out)
    out = self.fc(out)

    # softmax function
    soft_out = self.sof(out)

    # reshape to be batch_size first
    soft_out = soft_out.view(batch_size, -1)
#         soft_out …
Run Code Online (Sandbox Code Playgroud)

lstm recurrent-neural-network pytorch

3
推荐指数
2
解决办法
4610
查看次数