小编Raf*_*iga的帖子

具有 dropout 设置的 Transformers 预训练模型

我正在尝试使用 Transformer 的 Huggingface 预训练模型bert-base-uncased,但我想增加 dropout。方法中没有提到这一点from_pretrained,但 colab 运行下面的对象实例化没有任何问题。我在classtransformers.BertConfig文档中看到了这些 dropout 参数。

我是否使用 bert-base-uncased 并以正确的方式改变 dropout ?

model = BertForSequenceClassification.from_pretrained(
        pretrained_model_name_or_path='bert-base-uncased',
        num_labels=2,
        output_attentions = False,
        output_hidden_states = False,
        attention_probs_dropout_prob=0.5,
        hidden_dropout_prob=0.5
    )
Run Code Online (Sandbox Code Playgroud)

python bert-language-model huggingface-transformers

11
推荐指数
2
解决办法
1万
查看次数

Sklearn 的课程“StratifiedShuffleSplit”

StratifiedShuffleSplit对 Sklearn类的工作原理有点困惑。

下面的代码来自 Géron 的书“Hands On Machine Learning”,第 2 章,他在那里进行了分层抽样。

from sklearn.model_selection import StratifiedShuffleSplit

split = StratifiedShuffleSplit(n_splits=1, test_size=0.2, random_state=42)
for train_index, test_index in split.split(housing, housing["income_cat"]):
    strat_train_set = housing.loc[train_index]
    strat_test_set = housing.loc[test_index]
Run Code Online (Sandbox Code Playgroud)

特别是,在做什么split.split

谢谢!

python dataset scikit-learn

4
推荐指数
1
解决办法
2505
查看次数