如何提取文本中使用的关键字?

Rob*_*cks 36 indexing text data-mining keyword

如何通过数据挖掘一堆文本来获取关键字?("雅各布史密斯"或"围栏")

是否有软件可以做到这一点?甚至半自动,如果它可以过滤掉简单的单词,如"the","and","或",那么我可以更快地找到主题.

Jos*_*ian 119

这是NLP中的一个悬而未决的问题,因此没有简单的答案.

我对快速而肮脏的"为我工作"的建议是topia.termextract.

雅虎有一个关键字提取服务(http://developer.yahoo.com/search/content/V1/termExtraction.html),它具有低召回率但高精度.换句话说,它为您提供了少量高质量的术语,但遗漏了文档中的许多术语.

在Python中,有topia.termextract(http://pypi.python.org/pypi/topia.termextract/).它相对嘈杂,并提出了许多虚假关键字,但它使用简单.

Termine(http://www.nactem.ac.uk/software/termine/)是一个英国的网络服务,也相对嘈杂,并提出了许多虚假的关键字.但是,在我看来,它比topia.termextract稍微准确一些.因人而异.

使用太多关键字(例如topia.termextract和termine)对结果进行去噪的一种方法是创建频繁出现的术语词汇表,然后抛弃不在词汇表中的提议术语.换句话说,对你的语料库进行两次传递:第一次传递,计算每个关键词的频率.在第二遍中,丢弃太罕见的关键字.

如果你想自己编写,也许最好的介绍是由现在在IBM的Park编写的:

如果您想了解更多信息,请参阅以下参考资料:

  • http://en.wikipedia.org/wiki/Terminology_extraction
  • "CorePhrase:文档聚类的关键短语提取"
  • Liu et al 2009来自NAACL HLT
  • "自动识别非成分短语"
  • "数据挖掘遇到焦点发现"
  • 除了许多其他参考资料,您还可以深入了解这一主题.


Gav*_*ler 39

一般算法将如下所示:

- Obtain Text
- Strip punctuation, special characters, etc.
- Strip "simple" words
- Split on Spaces
- Loop Over Split Text
    - Add word to Array/HashTable/Etc if it doesn't exist;
       if it does, increment counter for that word

最终结果是文本中所有单词的频率计数.然后,您可以取这些值并除以总字数以获得频率的百分比.任何进一步的处理都取决于您.

你也想要研究Stemming.词干用于减少词根.例如going => go,cars => car

像这样的算法在垃圾邮件过滤器,关键字索引等中很常见.


Fab*_*oni 9

还有一项名为Alchemy的服务,可以进行术语提取,概念标记,情感分析等.

这是有效的,我测试了它,但我不知道他们的商业政策(如果有的话).它们为任何类型的语言提供API(非常).

我读到某处(对不起,我不记得哪里了)Alchemy给出的输出与Joseph提出的输出相比噪音更小.


Chr*_*heD 5

你没有指定你正在使用的技术,所以我猜一个shell脚本也是可能的.

Advanced Bash-Scripting Guide(12-11)中的频率分析示例一直给我留下了深刻印象

例如,下面从Gutenburg项目中取出一本书并写出一个词频率分析'报告':

wget http://www.gutenberg.org/files/20417/20417-8.txt -q -O- | 
sed -e 's/\.//g'  -e 's/\,//g' -e 's/ /\
/g' | tr 'A-Z' 'a-z' | sort | uniq -c | sort -nr > output.txt
Run Code Online (Sandbox Code Playgroud)

应该是可扩展的,以排除"公共"列表中的单词(,和,...等)等.