它看起来很容易.但我很困惑.
文本挖掘和信息提取有什么区别?
nlp information-retrieval text-mining information-extraction
在大多数分类(例如逻辑/线性回归)中,偏差项在正则化时被忽略.如果我们不规范偏见项,我们会得到更好的分类吗?
可分离的线性分类器可以有多个边界来分类数据.这就是我们选择SVM来选择具有最大余量的边界(对看不见的数据的最小泛化误差)的原因.
SVM分类是否始终产生唯一的解决方案(我们不会在所有可能的数据中获得两个最大边界边界)?
答案取决于硬边距SVM和软边际SVM吗?
我正在使用neurolab进行机器学习分类问题,链接: - http://code.google.com/p/neurolab/
我的问题是,我们可以逐步训练神经网络吗?
为了进一步解释,我有三部分输入数据,我想训练Neuro Net
e = net.train(input_part1, output_part1, show=1, epochs=100, goal=0.0001)
e = net.train(input_part2, output_part2, show=1, epochs=100, goal=0.0001)
e = net.train(input_part3, output_part3, show=1, epochs=100, goal=0.0001)
Run Code Online (Sandbox Code Playgroud)
将前两部分的火车呼叫将有效预测神经网络参数 - 或者 - 这只会使用最后的训练数据吗?
在词性标注器中,使用HMM by确定给定句子的最佳可能标签
P(T*) = argmax P(Word/Tag)*P(Tag/TagPrev)
T
Run Code Online (Sandbox Code Playgroud)
但是当"Word"没有出现在训练语料库中时,P(Word/Tag)在给定所有可能的标签时产生ZERO,这就没有留下选择最佳标签的空间.
我尝试过几种方法,
1)为所有未知单词分配少量概率,P(UnknownWord/AnyTag)~Epsilon ...意味着通过分配常数概率完全忽略未知单词的P(字/标记).因此对未知单词做出决策是先验概率..正如预期的那样,它没有产生好的结果.
拉普拉斯平滑我很困惑.我不知道(1)和这之间有什么区别.我理解拉普拉斯平滑的方法为所有未知和已知单词添加了常数概率(lambda).因此,所有未知单词将获得恒定概率(lambda的分数),并且已知单词概率将相对相同,因为所有单词的概率增加了LAMBDA.拉普拉斯平滑是否与前一个相同?
*)有没有更好的处理未知单词的方法?