在我的计算机上查找TensorFlow版本的命令是什么?我不久前在我的电脑上安装了TensorFlow,并希望确保我有最新版本.
根据我对 LightGBM 文档的阅读,应该在 Dataset 方法中定义分类特征。所以我有以下代码:
cats=['C1', 'C2']
d_train = lgb.Dataset(X, label=y, categorical_feature=cats)
Run Code Online (Sandbox Code Playgroud)
但是,我收到以下错误消息:
/app/anaconda3/anaconda3/lib/python3.7/site-packages/lightgbm/basic.py:1243: UserWarning: 在数据集中使用 categorical_feature。warnings.warn('在数据集中使用categorical_feature。')
为什么我收到警告消息?
为什么我需要AWS SageMaker的容器?如果我想在SageMaker的Jupyter笔记本上运行Scikit Learn用于自学习目的,我还需要为它配置Container吗?
如果我只是想学习Scikit Learn,我需要SageMaker的最低配置是什么?例如,我想运行Scikit Learn的决策树算法,其中包含一组训练数据和一组测试数据.我需要在SageMaker上执行哪些任务才能执行此操作?谢谢.
我有一个可以容纳主机内存的大型数据集。但是,当我使用 tf.keras 训练模型时,会出现 GPU 内存不足问题。然后我查看 tf.data.Dataset 并希望使用其 batch() 方法对训练数据集进行批处理,以便它可以在 GPU 中执行 model.fit() 。根据其文档,示例如下:
train_dataset = tf.data.Dataset.from_tensor_slices((train_examples, train_labels))
test_dataset = tf.data.Dataset.from_tensor_slices((test_examples, test_labels))
BATCH_SIZE = 64
SHUFFLE_BUFFER_SIZE = 100
train_dataset = train_dataset.shuffle(SHUFFLE_BUFFER_SIZE).batch(BATCH_SIZE)
test_dataset = test_dataset.batch(BATCH_SIZE)
Run Code Online (Sandbox Code Playgroud)
dataset.from_tensor_slices().batch()中的BATCH_SIZE与tf.keras modelt.fit()中的batch_size相同吗?
我应该如何选择BATCH_SIZE,以便GPU有足够的数据来高效运行,同时又不至于内存溢出?
我正在开展一个分类项目,一个结果可能属于多个类别。例如,结果可能属于 A、B 和/或 C 类;例如,A、B、A&B、A&C、B&C 等。但是,我想预测一个类别的概率。例如,P(A)=结果包含 A 类的概率;例如,Pr(A)+Pr(A&B)+Pr(A&C)+Pr(A&B&C)。
我更喜欢使用 LightGBM。我的问题是:
multilabel-classification multiclass-classification lightgbm
选择auc,error或logloss作为XGBoost的eval_metric如何影响其性能?假设数据不平衡。它如何影响准确性,召回率和准确性?
显然,Anaconda有一个不同的金字塔包,用于Web框架。https://anaconda.org/anaconda/pyramid
Arima pyramid用户指南建议使用pip安装金字塔Arima。https://www.alkaline-ml.com/pyramid/setup.html#setup
但是,由于Anaconda使用conda来配置程序包,如何为Jupyter笔记本电脑在Anaconda环境中添加金字塔形?
在我的 Jupyter 笔记本中,我有:
from xgbost import plot_importance
plot_importance(model)
pyplot.show()
Run Code Online (Sandbox Code Playgroud)
由于模型有很多特征,输出图表是不可读的。如何使图表变大?
tensorflow ×3
lightgbm ×2
python ×2
xgboost ×2
anaconda ×1
arima ×1
keras ×1
matplotlib ×1
scikit-learn ×1