小编Dox*_*s44的帖子

合并相同的 vgg16 模型但具有不同的输入

我正在研究一个项目中的分类问题。我的问题的特殊性是我必须使用两种不同类型的数据来管理它。我的课程包括汽车、行人、卡车和自行车。我的数据集由以下部分组成:

-来自相机的图像:它们是 RGB 图像。这是一个例子:在此输入图像描述

  • 通过将激光雷达点云(仅 3D 点)投影到 2D 相机平面并使用深度和反射率对像素进行编码来获得图像。以下是示例: 在此输入图像描述 在此输入图像描述

我已经成功地使用这两种模式,以便通过使用 keras API 的 Concatenate 函数来执行分类任务。

但我想做的是使用像 VGG 这样更强大的 CNN。我使用预训练模型并冻结除最后 4 层之外的所有层。我将灰度图像读取为 RGB,因为 VGG16 预训练模型需要 3 个通道输入。这是我的代码:

from keras.applications import VGG16
#Load the VGG model
#Camera Model
vgg_conv_C = VGG16(weights='imagenet', include_top=False, input_shape=(227, 227, 3))
#Depth Model
vgg_conv_D = VGG16(weights='imagenet', include_top=False, input_shape= (227, 227, 3))
for layer in vgg_conv_D.layers[:-4]:
    layer.trainable = False 
for layer in vgg_conv_C.layers[:-4]:
    layer.trainable = False 
mergedModel = Concatenate()([vgg_conv_C.output,vgg_conv_D.output])
mergedModel = Dense(units = 1024)(mergedModel)
mergedModel = BatchNormalization()(mergedModel)
mergedModel = …
Run Code Online (Sandbox Code Playgroud)

classification concatenation fusion lidar keras

3
推荐指数
1
解决办法
2134
查看次数

将稀疏 2D LiDAR 图像修复为密集深度图像

我正在研究分类问题(自动驾驶车辆的对象分类)。我使用 KITTI 的数据集,它提供 LiDAR 和相机数据,并希望使用这两个数据来执行任务。

\n

3D LIDAR 数据被投影到 RGB 图像的坐标系上,从而生成稀疏 LiDAR 图像:

\n

疏

\n

原始图像

\n

每个像素都使用深度进行编码(到点的距离:sqrt(X\xc2\xb2 + Y\xc2\xb2),缩放范围在 0 到 255 之间)。

\n

为了让我的 CNN 获得更好的结果,我需要一张密集的 LiDAR 图像,有人知道如何使用 Python 来实现吗?

\n

我想获得这样的东西

\n

目标

\n

python image-processing depth point-clouds lidar

2
推荐指数
1
解决办法
2278
查看次数