我有一个源代码,可以识别角色在图像中的位置.但有一行代码,我无法弄清楚为什么?
[r c]=size(mainImage);
% Why rotate 90 degree? why multyply? why??? :-??
splash = real(ifft2(fft2(mainImage) .* fft2(rot90(object, 2), r, c)));
thresh = max(splash(:))-10;
for i=1:r
    for j=1:c
        if splash(i,j)>=thresh 
            splash(i,j)=1;
        else
           splash(i,j)=0;
        end
    end
end
我有一个想法,就是说,我想识别图像中可能是.bmp或.jpg的字母.
例如,这里是一个带有字母'S'的.bmp图像.我想要做的是使用Python识别这封信.

它与那些问题类似auth code recognition,我读了一些Q,但仍然无法想象该做什么.
任何建议表示赞赏.
我有一个5个图像的人口矩阵,有49个提取的显着特征.我想在具有相同提取特征的测试图像49中计算Matlab中的余弦相似度.
我有一个非常嘈杂的图像,小(相关部分是381×314),功能非常微妙.

源图像和裁剪的相关区域也在这里:http://imgur.com/a/O8Zc2
任务是使用Python计算相关区域内的白点数,但我很高兴只是隔离区域内较亮的点和线并删除背景结构(在这种情况下是单元格).
使用OpenCV我尝试过直方图均衡(破坏细节),找到轮廓(不起作用),使用颜色范围(颜色太近了?)
有关其他事情的任何建议或指导可以尝试吗?我不相信我可以得到更高的res图像,所以这个任务可能与相当困难的来源?
opencv image-processing image-recognition edge-detection noise-reduction
在Watson图像识别(IR)演示中,您可以为应用程序提供图像,并对其进行分类,并告诉您它在图像中的含义.它是如何实现这一目标的?
至于我从文档中可以看出,你只能给它正面和负面的图像,它只能说'是',这是比萨,或'否',这不是比萨饼.它无法指定是披萨还是意大利面.
有没有办法实现这个目标?
machine-learning image-recognition ibm-watson visual-recognition
我尝试了最近在iOS中引入的Core ML来识别和分类图像.问题是,它没有为发送的图像提供正确的结果.
如果我发送一个地球图像(Globe)它会给我作为泡泡的课程.以下是我使用的代码,
            let model = Resnet50()
            let pixelBuffer: CVPixelBuffer =  (modelImg.pixelBuffer())!
            if let prediction = try? model.prediction(image: pixelBuffer) {
                print( "Found it!! It is a/an \(prediction.classLabel)")
            }
是否可以在现有Core ML模型的基础上使用自定义用例训练模型?(例如Resnet50)
我在家里用 tensorflow 玩卷积神经网络(顺便说一句,我已经完成了 udacity 深度学习课程,所以我有理论基础)。当运行卷积时,补丁的大小有什么影响?当图像更大/更小时,这种尺寸是否必须改变?
我做的练习之一涉及图像的 CIFAR-10 数据库(32x32 像素),然后我使用了 3x3 的卷积(填充为 1),得到了不错的结果。
但是现在我想玩比那个更大的图像(比如 100x100),我应该让我的补丁更大吗?我要保留它们 3x3 吗?此外,使补丁真正大有什么影响?(比如 50x50)。
通常我会直接在家里测试这个,但是在我的电脑上运行这个有点慢(没有 nvidia GPU!)
所以这个问题应该总结为
machine-learning image-recognition neural-network conv-neural-network
这是我的Python代码:
from PIL import Image
labels = ['airplane','automobile','bird','cat','deer','dog','frog','horse','ship','truck']
from keras.datasets import cifar10
(X_train, Y_train), (X_test,y_test) = cifar10.load_data()
index = int(input('Enter an image index: '))
display_image = X_train[index]
display_label = Y_train[index][0]
from matplotlib import pyplot as plt
red_image = Image.fromarray(display_image)
red,green,blue = red_image.split()
plt.imshow(red, cmap="Reds")
plt.show()
print(labels[display_label])
这就是返回的错误
文件“/Users/mcarvalho/PycharmProjects/SimpleImageRecognition/venv/lib/python3.6/site-packages/matplotlib/image.py”,第 419 行,在 _make_image 中,如果 A.mask.shape == A.shape: AttributeError: ' numpy.ndarray'对象没有属性'mask'
我收到以下错误
AttributeError:“列表”对象没有属性“ dtype”
运行以下脚本时,该脚本在Keras中使用转移学习来重新训练和微调Inception V3模型中的最后一层。对于我的数据集,我使用的是Kaggle的Cats and Dogs:我还是Keras的新手,非常感谢您的帮助!
这是代码:
import os
import sys
import glob
import argparse
import matplotlib.pyplot as plt
from keras import __version__
from keras.applications.inception_v3 import InceptionV3, preprocess_input
from keras.models import Model
from keras.layers import Dense, GlobalAveragePooling2D
from keras.preprocessing.image import ImageDataGenerator
from keras.optimizers import SGD
IM_WIDTH, IM_HEIGHT = 299, 299 #fixed size for InceptionV3
EPOCHS = 3
BAT_SIZE = 32
FC_SIZE = 1024
NB_IV3_LAYERS_TO_FREEZE = 172
STEPS_PER_EPOCH = 780
def get_nb_files(directory):
  """Get number of files by searching …我通过使用AR套件识别图像,当检测图像时我需要在所呈现的场景上显示和播放视频(如检测到的图像上方)?
lazy  var fadeAndSpinAction: SCNAction = {
    return .sequence([
        .fadeIn(duration: fadeDuration),
        .rotateBy(x: 0, y: 0, z: CGFloat.pi * 360 / 180, duration: rotateDuration),
        .wait(duration: waitDuration),
        .fadeOut(duration: fadeDuration)
        ])
}()
lazy var fadeAction: SCNAction = {
    return .sequence([
        .fadeOpacity(by: 0.8, duration: fadeDuration),
        .wait(duration: waitDuration),
        .fadeOut(duration: fadeDuration)
        ])
}()
lazy var fishNode: SCNNode = {
    guard let scene = SCNScene(named: "Catfish1.scn"),
        let node = scene.rootNode.childNode(withName: "Catfish1", recursively: false) else { return SCNNode() }
    let scaleFactor = 0.005
    node.scale = SCNVector3(scaleFactor, scaleFactor, scaleFactor) …keras ×2
matlab ×2
python ×2
swift ×2
arkit ×1
coreml ×1
detection ×1
fft ×1
ibm-watson ×1
ios11 ×1
keras-2 ×1
matplotlib ×1
opencv ×1
scenekit ×1
similarity ×1
tensorflow ×1
xcode ×1