-
学到这里,同学们可能会有这个疑问。
-
如何编译每章节提供的工程代码?
——来自《自动驾驶控制与规划- 第一期》·67浏览
配置好了ROS 1.0 和 SVL 之后,接下来如何编译课程提供的工程文件呢
-
多观测下的融合策略
——来自《多传感器融合感知- 第一期》·13浏览
在融合模块,采用滤波方式,对于同一个目标,状态方程只有一个,但观测量可能有多个,如何做融合呢?
-
求推荐一个点云数据做实例分割的开源算法
——来自《多传感器融合感知- 第一期》·9浏览
请问对RGB-D的点云数据做instance segmentation实例分割,在工程上速度优先,且模型简单的优先前提下,推荐用那个已开源的算法呢。
-
点云匹配任务,我看一般方法是使用关键点集合而非下采样后的点云进行数据的匹配,降低了搜索点集的规模,提高了运算效率。
有没有不做关键点检测,直接用下采样后的点云做匹配的相关工作呢? -
课程内容中讲了Lidar与Camera, Camera与Radar的前融合代表性的算法。但没有看到这3种传感器一块前融合的内容。
-
根据图像估计BEV下的x和y
——来自《多传感器融合感知- 第一期》·8浏览
通过图像可以估计出BEV下的x和y,具体是怎么估计的,通过逆透视变换吗?
-
关于目标匹配中,权重计算的问题
——来自《多传感器融合感知- 第一期》·13浏览
权重是通过那些维度的信息来计算的?
权重矩阵在实际情况并不是方阵,怎么处理成方阵?
不一定所有都能匹配成功,满足什么条件才能匹配成功?
所有传感器数据都投影到图像上计算权重吗?在权重矩阵中,匈牙利算法怎么体现出匹配不上的情况
-
有开源的毫米波雷达和相机数据集的Rosbag吗?
——来自《多传感器融合感知- 第一期》·16浏览
直接可以下载的,不需要格式转换的。
-
纯视觉SLAM领域有哪些SOTA的方法?
——来自《多传感器融合感知- 第一期》·20浏览
SOTA是指 state of the art
-
对于像label这种属性,后融合进行KF或者EKF时,其方差怎么设置?
-
如果我们要识别一个物体,这个物体在相机image的像素大小至少要多少,才可以做目标识别;另一个是对 point cloud的目标识别需要的点云数量多少和shape要求。我知道对点云来说 车辆最小点数理论值不小于30个 行人不小于10个点 ----但不清楚是如何计算出来的呢?还是通过实验?
-
不同频率的传感器,融合时是如何进行的?
——来自《多传感器融合感知- 第一期》·15浏览
假设相机的感知是30hz, lidar的感知是10hz,那么在融合的时候,是以什么频率进行的?30还是10hz?如果是10的话,那么相机在lidar中间的那几帧的感知结果有什么用?