相关疑难解决方法(0)

如何将n-gram组合成Spark中的一个词汇?

想知道是否有内置的Spark功能将1,2,n-gram功能组合到一个词汇表中.设置n=2NGram随后的调用CountVectorizer仅含有2克导致字典.我真正想要的是将所有频繁的1克,2克等组合成一个字典用于我的语料库.

python nlp apache-spark pyspark apache-spark-ml

6
推荐指数
1
解决办法
2630
查看次数

标签 统计

apache-spark ×1

apache-spark-ml ×1

nlp ×1

pyspark ×1

python ×1