我已经在这个 Github 项目中使用 Keras 训练了 yolov2 和 yolov3 模型https://github.com/experiencor/keras-yolo2
现在我想在暗网预测中使用经过训练的模型 (.h5)。本质上,我需要将此 h5 模型转换为暗网(.权重)预期的格式。我看过这个项目https://github.com/allanzelener/YAD2K/blob/master/yad2k.py
这与我想要的相反吗?以前有人试过这个吗?
我正在评估模板匹配算法来区分相似和不相似的对象。我发现令人困惑的是,我的印象是模板匹配是一种比较原始像素强度值的方法。因此,当像素值变化时,我预计模板匹配会给出较低的匹配百分比。
我有一个模板和搜索图像,其形状和大小相同,仅颜色不同(附图)。当我进行模板匹配时,令人惊讶的是我得到的匹配百分比大于 90%。
img = cv2.imread('./images/searchtest.png', cv2.IMREAD_COLOR)
template = cv2.imread('./images/template.png', cv2.IMREAD_COLOR)
res = cv2.matchTemplate(img, template, cv2.TM_CCORR_NORMED)
min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)
print(max_val)
Run Code Online (Sandbox Code Playgroud)
有人可以告诉我为什么会这样吗?我什至在 HSV 色彩空间、完整 BGR 图像、完整 HSV 图像、B、G、R 的单独通道和 H、S、V 的单独通道中尝试过此操作。在所有情况下,我都获得了不错的百分比。
任何帮助都将非常感激。
我有兴趣了解数据扩充(在各种角度旋转,翻转图像)的重要性,同时为机器学习问题提供数据集。
是否真的需要?还是使用CNN网络也将处理此问题,无论数据转换有多大不同?
所以我进行了2个班级的分类任务来得出一些结论
这个想法是只训练一个方向的形状(我用箭头指向右边),然后用另一个方向(我的箭头用向下箭头)检查模型,而这个方向在训练阶段根本没有给出。
培训中使用的一些样本
测试中使用的一些样本
这是我用来创建张量流模型的整个数据集。 https://bitbucket.org/akhileshmalviya/samples/src/bab50b85d826?at=master
我想知道我得到的结果,
(i)除少数向下箭头外,其他所有箭头均已正确预测为箭头。这是否意味着完全不需要数据扩充?
(ii)还是我用来理解数据增强的重要性的正确用例?
请分享您的想法,我们将不胜感激!