我正在尝试为三个 ML 模型创建一个分类准确度图,具体取决于数据中使用的特征数量(使用的特征数量从 1 到 75,根据特征选择方法排名)。我进行了 100 次迭代,计算每个模型和每个“使用的特征数量”的准确度输出。下面是我的数据的样子(clsf 从 0 到 2,时间点从 1 到 75): 数据
然后我调用了 seaborn 函数,如文档文件中所示。
sns.lineplot(x= "timepoint", y="acc", hue="clsf", data=ttest_df, ci= "sd", err_style = "band")
Run Code Online (Sandbox Code Playgroud)
情节是这样的: 情节
我希望 x 轴上的每个点都有置信区间,但不知道为什么它不起作用。每个 x 值都有 100 个 y 值,所以我不明白为什么它不能计算/显示它。
我不知道如何使XGBoost分类器工作。我在jupyter笔记本上运行以下代码,并且始终生成此消息“内核似乎已死亡。它将自动重新启动。”
from xgboost import XGBClassifier
model = XGBClassifier()
model.fit(X, y)
Run Code Online (Sandbox Code Playgroud)
导入XGBClassifier没问题,但是将其拟合到我的数据时会崩溃。X是502 x 33的全数字数据帧,y是每行0或1个标签的集合。有人知道这可能是什么问题吗?我通过pip3安装以及conda安装下载了xgboost的最新版本。
谢谢!