我的项目是使用 OpenCV 库识别 Android 上的叶子。我使用ORB检测来获取图像的关键点并使用ORB描述符来获取关键点的特征。这是我使用的代码:
bmp=BitmapFactory.decodeResource(getResources(),R.drawable.t1);
Utils.bitmapToMat(bmp, mat);
FeatureDetector detector = FeatureDetector.create(FeatureDetector.ORB);
detector.detect(mat, keypoints);
DescriptorExtractor extractor = DescriptorExtractor.create(DescriptorExtractor.ORB);
extractor.compute(mat, keypoints, features);
Run Code Online (Sandbox Code Playgroud)
来源:http : //answers.opencv.org/question/6260/orb-features/
但是每次我输入相同的图像,该图像的关键点总是不同的。如果总是不同,我可以将关键点的特征保存到数据库吗?或者我应该保存图像以保存特征数据?如果可以保存到数据库,我该怎么做??
我正在将语音识别项目从MATLAB转换为Java代码。我已经能够使用此处提供的 java 示例读取.wav文件(作为-1 到 1范围内的值的向量)。这与MATLAB 中的 wavread 函数完全一样。
我的下一个任务是从原始样本向量中提取MFCC特征向量。在MATLAB 中,我使用Voicebox轻松实现了这一点,但一直无法找到Java等价物。使用 Voicebox,我有一个类似的代码:
a = melcepst(samples(1,:), 44100)
Run Code Online (Sandbox Code Playgroud)
其中“样本”的每一行都包含代表每个 .wav 样本的向量。该方法返回每个样本的MFCC特征的二维矩阵。
我见过Sphinx,但一直无法理解如何使用它来完成这项任务。任何有关使用Sphinx或任何其他java解决方案的帮助将不胜感激。
我搜索了在 Python 中实现降维的方法,这是我得到的结果:http : //scikit-learn.org/stable/modules/unsupervised_reduction.html。该网站中显示的最后一种方法是特征聚合。我点击了该 python 方法的文档链接,但我仍然不确定如何使用它。
如果之前有人使用过 Python 的特征聚合方法,您是否可以解释它是如何工作的(输入、输出等)?谢谢!
python machine-learning feature-extraction dimensionality-reduction scikit-learn
这是我的数据
No Body
1 DaTa Analytics 2
2 StackOver 67
Run Code Online (Sandbox Code Playgroud)
这是我的预期输出
No Body Uppercase Lowercase
1 DaTa Analytics 2 3 10
2 StackOver 67 2 7
Run Code Online (Sandbox Code Playgroud) 这是我的数据
No Body
1 DaTa, Analytics 2
2 StackOver. 67%
Run Code Online (Sandbox Code Playgroud)
这是我的预期输出
No Body Non Alphanumeric
1 DaTa, Analytics 2 1
2 StackOver. 67% 2
Run Code Online (Sandbox Code Playgroud)
我只计算非字母数字,如! @ # & ( ) % – [ { } ] : ; ', ? / * 空格,数字不计算
我遇到了一个与这个旧问题相关的问题:在 Scikit Learn 中运行 SelectKBest 后获取功能名称的最简单方法
当尝试使用“get_support()”获取所选功能时,我收到错误消息:
numpy.ndarray'对象没有属性'get_support
我将非常感谢您的帮助!
杰夫
我想知道 Sklearn 的 RFECV 是否可以选择固定数量的最重要的功能。例如,在处理具有 617 个特征的数据集时,我一直在尝试使用 RFECV 来查看其中哪 5 个特征最重要。然而,RFECV 没有参数“n_features_to_select”,不像 RFE(这让我很困惑)。我该如何处理?
python machine-learning feature-extraction scikit-learn cross-validation
我正在尝试使用Sklearn提取特征提取文本,但是出现错误
类型错误:fit_transform()缺少1个必需的位置参数:“ raw_documents”
似乎我必须在缺少原始文档的情况下完成一些参数,但是我找不到导致错误的原因,这是我的代码:
features=TfidfVectorizer.fit_transform(data.status).toarray()
label=data.label
features.shape
Run Code Online (Sandbox Code Playgroud)
在Jupyter笔记本电脑控制台中运行时,出现以下错误:
TypeError Traceback (most recent call last)\
<ipython-input-3-614f2fa78a04> in <module>()
----> 1 features=TfidfVectorizer.fit_transform(data.status).toarray()
2 label=data.label
3 features.shape
TypeError: fit_transform() missing 1 required positional argument: 'raw_documents'
Run Code Online (Sandbox Code Playgroud) python machine-learning feature-extraction scikit-learn tfidfvectorizer
在使用 librosa.feature.rmse 进行声音特征提取时,我有以下几点:
import librosa
import numpy as np
wav_file = "C://TEM//tem//CantinaBand3.wav"
y, sr = librosa.load(wav_file)
chroma_stft = librosa.feature.chroma_stft(y=y, sr=sr)
rmse=librosa.feature.rmse(y=y)[0]
print rmse
Run Code Online (Sandbox Code Playgroud)
它给了我:
AttributeError: 'module' object has no attribute 'rmse'
Run Code Online (Sandbox Code Playgroud)
获得它的正确方法是什么?谢谢你。
示例文件:https : //www2.cs.uic.edu/~i101/SoundFiles/CantinaBand3.wav
我正在使用OpenCV实现Bag-of-Words图像分类器.最初我测试了在SURF关键点中提取的SURF描述符.我听说Dense SIFT(或PHOW)描述符可以更好地用于我的目的,所以我也尝试过它们.
令我惊讶的是,他们表现得更差,实际上差了近10倍.我能做错什么?我正在使用OpenCV的DenseFeatureDetector获取关键点.我从9层中提取每个图像大约5000个描述符,并将它们聚类成500个簇.
我应该从VLFeat库中尝试PHOW描述符吗?此外,我不能在OpenCV的SVM实现中使用chi square内核,这在许多论文中都是推荐的.这对分类器质量至关重要,我应该尝试另一个库吗?
另一个问题是尺度不变性,我怀疑它可能受到密集特征提取的影响.我对吗?