• 课程中心
  • 公开课
  • 面试题库
  • 企业服务
    • 企业内训
    • 企业招聘
  • 高校合作
  • 课程中心
  • 公开课
  • 面试题库
  • 企业服务
    • 企业内训
    • 企业招聘
  • 高校合作
    • 登录/注册
  • 登录/注册
    • 登录/注册
  • 登录 /注册
    • 课程中心
    • 公开课
    • 面试题库
    • 企业服务
      • 企业内训
      • 企业招聘
    • 高校合作

    育心

    师者,传道受业解惑也。

    中国科学院自动化所博士,主要研究方向为机器学习与计算机视觉。
    • 25
      粉丝
      关注 已关注
    • 3
      关注
    • Ta的课程
    • Ta的在教课程
    • Ta的课程
    • 课程讨论
    • Ta的话题
    • Ta的问答
    • Ta发布的
    • Ta参与的
    • 这样一套流程搭下来无人机续航多长时间啊?

      ——来自《从0制作自主空中机器人- 第二期》·9浏览

      续航时间一二十分钟

    • 不得不说,课程质量真的很一般

      ——来自《机器人抓取与操作:经典方法与端到端- 第二期》·30浏览

      你好,感谢你的反馈。我们正在对课程进行迭代更新,有具体意见和建议么,我们在本次迭代更新中调整过来。

    • int8量化,存储体积相比于fp16减少一半,为什么速度约为之前的1.5—2倍,而不是2倍呢?

      ——来自《深度神经网络模型压缩- 第一期》·19浏览

      这是因为模型部署过程中,如果增加了int8量化这个环节,那么也会增加反量化这个环节,反量化也会占用时间损耗。

      此外,int8矩阵乘法与fp16矩阵乘法相比,前者会快,但是并不是严格两倍关系,这取决于硬件底层的实现和软件层面(比如CUDA)的实现。

    • apollo社区无法登录

      ——来自《Apollo自动驾驶技术详解25讲- 第一期》·6浏览

      你好,这个问题,我们反馈给Apollo社区的工作人员。尽快给您回复

    • 为何要加入+1的神经元

      ——来自《深度学习理论与实践(视觉方向)- 第八期》·10浏览

      不是加1,是加了偏置项b吧?

    • CRFNet没讲啊,就给放了个视频。。

      ——来自《多传感器融合感知- 第一期》·7浏览

      您好,感谢您的反馈。融合感知的课程目前正在迭代,预计两个月的迭代周期。迭代完成后,会同步更新到这一期。

    • 什么时候开始更新12章以后

      ——来自《线性代数几何意义- 第三期》·10浏览

      您好,现在在准备第12章节的试录制,尽快推进哈。

    • Ego-planner 可以基于激光雷达实现吗?

      ——来自《自主旋翼无人机导论- 第一期》·59浏览

      是说,用激光雷达扫描建图或者障碍物检测吗?

    • 这个代码到哪里下载阿

      ——来自《移动机器人运动规划- 第七期》·20浏览

      您好,Fast-planner和Ego-planner的代码,在github上搜一下,都是开源的。

    • 请问什么时候能更新完毕呢?谢谢

      ——来自《线性代数几何意义- 第二期》·20浏览

      您好,目前基本是2-3周一章节的速度更新。

    • 如何编译每章节提供的工程代码?

      ——来自《自动驾驶控制与规划- 第一期》·73浏览

      课程Project I中的压缩包内,给大家提供了操作演示的视频。如下图中的“操作步骤演示.mp4”。

       

    • 多观测下的融合策略

      ——来自《多传感器融合感知- 第一期》·14浏览

      多个观测量的情况,融合方法有两种,一种是集中式卡尔曼滤波,一种是分布式卡尔曼滤波。

      对应课程中讲到的两种方式:
      (1)集中式是将所有传感器观测方程合并成一个高维的观测方程;
      (2)分布式是采用加权的方法,可以分别将多个观测估计出来的状态进行加权。

    • 求推荐一个点云数据做实例分割的开源算法

      ——来自《多传感器融合感知- 第一期》·9浏览

      可以看一下LidarSeg

    • 点云匹配任务,直接用下采样后的点云做匹配,是否可行呢?

      ——来自《多传感器融合感知- 第一期》·9浏览

      这个很常见,基本上实际工程上都会先做下采样。

      但是下采样之后依然是继续用各种匹配算法,ICP这种简单粗暴的也好,提取特征的也好,深度学习的也有。但是下采样也只是个前处理。

      ICP算法现在也有很多变种,比如点到点的ICP,点到线的ICP (PLICP),点到面的ICP (Point-to-Plane ICP),面到面的ICP (Plane-to-Plane ICP),Normal Iterative Closest Point (NICP)等。在工程中使用ICP算法时,要注意选择用哪些点去进行ICP,附件中是之前看过的一篇文章,着重讲解了他们如何选择ICP。

    • 有没有Lidar, Camera, Radar这3种传感器一起前融合的相关研究呢?

      ——来自《多传感器融合感知- 第一期》·14浏览

      三者前融合的论文,比较少,没有值得推荐的论文。可能的原因在于:Lidar的点云比Radar要稠密,一般用Lidar前融合就不用Radar了。

    • 根据图像估计BEV下的x和y

      ——来自《多传感器融合感知- 第一期》·8浏览

      工程上和算法上都有办法实现:

      (1)工程上,假设地面是平的或者假设已知车辆宽度等基础上,可以用来反向估计3D位置。可以搜索关键词“单目测距”;

      (2)算法上,可以从图像中直接估计3D位姿,参考mono3D算法。

    • RGB-D和lidar融合有哪些SOTA的方法?

      ——来自《多传感器融合感知- 第一期》·14浏览

      前融合可以看一下LaserNet++和PointPainting这两个方法

    • 关于目标匹配中,权重计算的问题

      ——来自《多传感器融合感知- 第一期》·13浏览

      权重矩阵是通过3D/2D框的iou算的,就是匹配算法前面一张PPT。
      不是所有的都能匹配上。工程上,对于观测对象没匹配上的,我们通常会积累两三帧观测,然后在状态中,新增一个物体实例,后面的观测对象就跟这个新增的物体进行匹配。
      对于没有匹配上的状态对象,会给它维护一个生命周期,如5帧,如果5帧内都没有这个对象的观测,就从状态对象列表中删除。中间如果出现,就正常更新,并增加生命周期长度,生命周期长度上限就是5。

      图像上并不意味着没有3D信息,实际上现在很多厂商都可以以一定的误差,恢复3D的位置和3D的框,所以不是所有的传感器数据都需要投影到图像上。
      只有那些需要用到图片域中特征的匹配,才需要投影到图像域,如分割的结果。

      对于匹配不上的节点,就认为感知系统以前没看到过,或者当前帧传感器没有看到,就可以了。按照上面我说的方式去更新。

    • 有开源的毫米波雷达和相机数据集的Rosbag吗?

      ——来自《多传感器融合感知- 第一期》·16浏览

      现成的没看到过,可以自己转一下nuscenes,https://github.com/clynamen/nuscenes2bag

    • 纯视觉SLAM领域有哪些SOTA的方法?

      ——来自《多传感器融合感知- 第一期》·20浏览

      ORBSLAM2在纯视觉的方案里还是最好的,ORBSLAM3主要做了与IMU的融合,然后地图方面在论文里说,从理论上做了一些改进,但是实际测下来的效果,我觉得不如ORBSLAM2。

      答案来自腾讯的自动驾驶工程师

    • 1
    • 2
    • 尾页

    深蓝学院是专注于前沿科技的教育平台,目前在人工智能、机器人与自动驾驶领域搭建了完善的课程体系,并在积极探索嵌入式、物联网、增强现实领域的教育模式。学院致力于为企业培养踏实上进的工匠型人才,也愿与企业共同探索人才教育方案。

    关于我们 版权声明 联系电话:010-86226736
    服务协议 反馈建议 联系邮箱:service@shenlanxueyuan.com
    友情链接:
    • 中科院自动化所
    • 中国科学院大学
    官方微信公众号
    扫码下载APP
    ©2025 深蓝学院

    课程内容版权均归 北京深蓝前沿科技有限公司所有

    京ICP备19029074号| 京公网安备 11011402010666号
    在线咨询
    常见问题
    证书查询
    返回顶部