小编art*_*mis的帖子

Sklearn自定义变换器:使用FunctionTransformer和子类化TransformerMixin之间的区别

为了进行适当的CV,建议使用管道,以便可以对CV中的每个折叠应用相同的转换.我可以使用sklearn.preprocessing.FunctionTrasformer或通过使用或定义自定义转换subclassing sklearn.base.TransformerMixin.推荐的方法是哪一种?为什么?

python machine-learning scikit-learn cross-validation

7
推荐指数
2
解决办法
4555
查看次数

Keras LSTM状态与带有滑动窗口的前馈网络

在Keras的LSTM实现中的默认模式(状态= False)下,一批中的所有样本都是独立的,并且状态不会从一个样本传播到下一个样本。根据我的理解,输入序列长度(L)是使LSTM保持状态的唯一方法。但是,这限制了状态传播到一个固定数目的时间步长,即大号。从理论上讲,与具有固定大小的滑动输入窗口的前馈NN相比,此操作模式将具有什么优势。这样,到NN的每个输入都是L个连续输入值的向量。

从理论上讲,LSTM应该能够学习跨越1000个时间步长的长期依赖关系。但这是否不要求我有L = 1000,因为没有办法捕获比输入序列长的依赖项?我知道可以通过格式化输入数据来使用有状态模式,这样每批的第i个样本都是相关的。我很难理解默认的LSTM模式相对于带有滑动窗口的前馈NN优于输入数据有什么优势?

feed-forward lstm keras

5
推荐指数
1
解决办法
444
查看次数