mel*_*mel 5 python matplotlib python-3.x scikit-learn
我应用 K-mean 算法使用 scikit learn 对一些文本文档进行分类并显示聚类结果。我想在相似度矩阵中显示我的集群的相似度。我在 scikit 学习库中没有看到任何允许这样做的工具。
# headlines type: <class 'numpy.ndarray'> tf-idf vectors
pca = PCA(n_components=2).fit(headlines)
data2D = pca.transform(to_headlines)
pl.scatter(data2D[:, 0], data2D[:, 1])
km = KMeans(n_clusters=4, init='k-means++', max_iter=300, n_init=3, random_state=0)
km.fit(headlines)
Run Code Online (Sandbox Code Playgroud)
有什么方法/库可以让我轻松绘制这个余弦相似度矩阵?
如果我猜对了,您会希望生成一个类似于此处显示的混淆矩阵。但是,这需要可以相互比较的atruth和 a prediction。假设您有一些黄金标准来将标题分类为k组 (the truth),您可以将其与 KMeans 聚类 (the prediction) 进行比较。
唯一的问题是 KMeans 聚类与您的 无关truth,这意味着它产生的聚类标签将与黄金标准组的标签不匹配。然而,有,一个变通的这一点,这是匹配kmeans labels的truth labels基础上的最佳匹配。
这是一个如何工作的示例。
首先,让我们生成一些示例数据——在这种情况下,100 个样本,每个样本有 50 个特征,从 4 个不同(且略微重叠)的正态分布中采样。细节无关紧要;所有这些都应该做的是模仿您可能正在使用的数据集类型。在truth这种情况下是平均值,一个样品从生成的正态分布的。
# User input
n_samples = 100
n_features = 50
# Prep
truth = np.empty(n_samples)
data = np.empty((n_samples, n_features))
np.random.seed(42)
# Generate
for i,mu in enumerate(np.random.choice([0,1,2,3], n_samples, replace=True)):
truth[i] = mu
data[i,:] = np.random.normal(loc=mu, scale=1.5, size=n_features)
# Show
plt.imshow(data, interpolation='none')
plt.show()
Run Code Online (Sandbox Code Playgroud)
接下来,我们可以应用 PCA 和 KMeans。
请注意,我不确定 PCA 在您的示例中的确切含义,因为您实际上并未将 PC 用于 KMeans,而且不清楚to_headlines您转换的数据集是什么。
在这里,我正在转换输入数据本身,然后使用 PC 进行 KMeans 聚类。我还使用输出来说明Saikat Kumar Dey在对您的问题的评论中建议的可视化:散点图,点按聚类标签着色。
# PCA
pca = PCA(n_components=2).fit(data)
data2D = pca.transform(data)
# Kmeans
km = KMeans(n_clusters=4, init='k-means++', max_iter=300, n_init=3, random_state=0)
km.fit(data2D)
# Show
plt.scatter(data2D[:, 0], data2D[:, 1],
c=km.labels_, edgecolor='')
plt.xlabel('PC1')
plt.ylabel('PC2')
plt.show()
Run Code Online (Sandbox Code Playgroud)
接下来,我们必须找到truth labels我们在开始时生成的(这里mu是采样正态分布的)和kmeans labels聚类生成的之间的最佳匹配对。
在这个例子中,我只是简单地匹配它们,使得真阳性预测的数量最大化。请注意,这是一个简单、快速和肮脏的解决方案!
如果您的预测总体上非常好,并且如果每个组在您的数据集中由相似数量的样本表示,则它可能会按预期工作 - 否则,它可能会产生不匹配/合并,并且您可能有点高估了您的数据质量结果聚类。
欢迎提出更好的解决方案。
# Prep
k_labels = km.labels_ # Get cluster labels
k_labels_matched = np.empty_like(k_labels)
# For each cluster label...
for k in np.unique(k_labels):
# ...find and assign the best-matching truth label
match_nums = [np.sum((k_labels==k)*(truth==t)) for t in np.unique(truth)]
k_labels_matched[k_labels==k] = np.unique(truth)[np.argmax(match_nums)]
Run Code Online (Sandbox Code Playgroud)
现在我们已经匹配了truths和predictions,我们最终可以计算并绘制混淆矩阵。
# Compute confusion matrix
from sklearn.metrics import confusion_matrix
cm = confusion_matrix(truth, k_labels_matched)
# Plot confusion matrix
plt.imshow(cm,interpolation='none',cmap='Blues')
for (i, j), z in np.ndenumerate(cm):
plt.text(j, i, z, ha='center', va='center')
plt.xlabel("kmeans label")
plt.ylabel("truth label")
plt.show()
Run Code Online (Sandbox Code Playgroud)
希望这可以帮助!
| 归档时间: |
|
| 查看次数: |
8032 次 |
| 最近记录: |