百面自动驾驶!送给正在秋招的你~

  1. 刚刚面快手模型加速被吊打了,除了我用过的方法,其他剪枝算法都不知道,连说了好几个“不知道”。最后的coding是手写conv-bn融合,写出来了。面试官草草看了一下就说没问题,然后就结束了。

萌主:做这块挺有前途的,而且门槛不低

1、https://t.zsxq.com/136wslYQi

2、https://t.zsxq.com/13juVslD5

3、https://t.zsxq.com/13K1mRqQS

  1. 想请教一下大家,如果想申请国内/外的博士,CCFB/CCFC 类会议和开源的 SCI 二三区期刊哪个更有优势呢?

在我看来,CCF 推荐的会议应该是比开源期刊更有含金量的,但是现在大部分学校的评价体系更偏向于 SCI,本菜鸡有些迷茫

擎天柱:这个必然等级是越高越好,具体SCI和CCF没多大差别

  1. 大哥们,想问下激光雷达驱动开发这块有推荐的资料吗?主要是16线机械式。一般驱动包含哪些模块?数据协议,收发模块有啥资料吗?

黄峰:gayhub上找开源sdk抄一下,再看看他们的参考pdf就行。一般就是约定端口和数据格式,读网包然后按照16进制或者其他方式,结合数据排列按位解析,再写output发送这种

  1. 各位大佬好,公司现在要求自己搭建真值系统,目前传感器的安装和标定都处理完了,现在需要做多传感器数据分析对比,主要涉及到软件开发部分,因为要出去展示,要告诉客户怎么观察不同传感器的优劣势,请问现在主流的真值系统供应商都做了哪些数据分析对比功能,用什么指标来衡量,有相关资料吗,感谢

萌主:参考:

  1. 职场新人请教问题:

我是双985硕,去了北京一家自动驾驶公司呆了1年多,然后因为公司战略调整的原因我现在只能再找工作。最近参与社招筋疲力尽,因为工作经验不足,没项目经验吃不少闭门羹,经过一番努力有两个offer:一个是滴滴沃芽一个是吉利研究院的自动驾驶。

前者是云端车端的开发base北京,后者是激光雷达感知算法base杭州湾(我本身硕士课题做感知的)

我自己偏向于前者,因为方向其实挺感兴趣,那边有我熟人,我男朋友也在北京,到时我的mentor会是这个领域里干了6年的大哥,是这个组的leader。后者嘛…一个是感知岗和我原来方向匹配,其他不是特别了解了,还有一个就是免不了俗的钱多我也知道为啥钱多,毕竟卷。

我想请教各位大佬这两个公司从技术、从行业认可度还有稳定性来讲哪个更靠谱呢?

吉利网上名声不是很好都是劝退帖,但我想从专业角度来听听各位的想法,给我指个明路,感谢

擎天柱:沃芽的行业认可度还是比较高的,而且你面试也能感觉到那边技术氛围挺浓的,很适合你在积累个2-3年,我也和里面的人聊过,比较open

萌主:圈子很重要,有大佬带很重要,男朋友很重要。所以你自己的感觉是对的。

以上内容均出自《自动驾驶之心知识星球》,欢迎加入

a87024870aad04f4392b9ad1242093ad.png

  1. 24届研究生求问:

研究题目做的比较冷门, 是Scanning Radar 相关的分割工作,

之前也有试过用Scanning radar做检测, 点云方面就涉及的比较少, 主要是导师要求做的方向

这个背景去投感知算法的相关岗位会不会很吃亏,  感觉目前业界用的比较多的还是automotive radar 或最新的 4D imaging radar, 求大佬给点建议  或是该往automotive radar 检测追踪方向多学习呢 最近投简历看着JD都很慌

擎天柱:会有些吃亏,如果你打算自学的话最好还是把lidar-camera-radar都撸一遍

萌主:automotive radar 或最新的 4D imaging radar,这两块还是值得深入的,检测和追踪。

游振兴:可以考虑做image radar的感知,先在一个方向做出个人优势。image radar有可能是接下来一两年时间内的新的热点

擎天柱:如果你是纯模型,python为主,C++主要是后处理和部署用

  1. 大佬们好,我是研二的学生目前被导师定下的研究方向是园区巡航的局部路径规划,解决的主要问题是动态避障问题。我现在很迷茫,我看了一些论文,发现基本上是在城市道路上面进行决策规划,园区的很少,并且这些算法没有梳理到一个明确的脉络,因为自己看到的算法十分零碎,没有一个明确的体系。我尝试用动态窗口法结合A*之类的改进,但是导师说这些传统算法比较老,不适合作为研究生毕设,想请教大佬们,这方面目前的情况,学术上有没有成熟的体系,我该怎么发掘问题的创新点,谢谢

擎天柱:整体的路径规划都算是很成熟了,这几年传统方法也很难出什么创新点,创新这块像强化学习类的能好发文字一些

游振兴:这个不仅仅是规划问题,可以考虑结合地图形态的创新一起做

  1. 请问一下,OccBEV和BEVDet-Occ的占用预测可视化怎么跑呀,官方没有提供可视化流程。

擎天柱:可以看下SurroundOcc:SurroundOcc/tools at main · weiyithu/SurroundOcc ·.

  1. 由于本人对自动驾驶汽车内部作用原理及流程不是很清晰,想请教大家,如何改装出一辆在指定场地达到 L3/L4 级别的自动驾驶车辆?需要自己实现什么模块?偏底层这块,我只知道线控底盘,操作系统和中间件

如果上层算法包括感知、建图、定位、多传感器融合(跟踪)、预测、规划、控制都被封装好, 应该怎么把这些模块集成起来,让汽车能正常进行自动驾驶呢?

游振兴:可以玩下百度的apollo

:https://apollo.baidu.com/

萌主:很大的一个问题,涉及很多上下游模块的交互通信,如何进行电控等等。几句话也说不清。这些动作的背后,是一行行的代码...... 参考篇文章:https://www.pcauto.com.cn/news/2289/22894351.html

  1. 万能的友友 请教个数学问题。已知曲线某点切线与x轴夹角为theta,为什么说该点处的切线向量是(cos theta,sin theta)呢?

擎天柱:切线向量是单位长度的向量,不就正好是cos和sin么

问:其实我想问的是,曲线任一点的切向量是不一定过坐标轴原点的,为什么可以用题目描述的向量表示切向量呢?

萌主:

  1. 华为,小鹏 感知已经切到前融合了么,有没了解的小伙伴

黄峰:前融合并没有那么好做,目前多模态方案还是集中在特征级和后融合,他们会有一些模型借助前融合提升数据的表达能力(其他公司也在做),但并不是所有任务都切人了

问:他们会有一些模型借助前融合提升数据的表达能力(其他公司也在做) --- 能具体展开说说么,

黄峰:比如通过radar和lidar数据和图像数据做融合,提升图像数据本身的表征能力

  1. 大佬们,有没有熟悉TDA4VH的啊。我现在在TDA4VH上部署了一个车道新检测模型,显示器上可显示出来识别结果。具体的参数保存在哪里了啊。怎么样把参数传出来呢。

黄峰:你要保存结果还是拿到变量的值,可视化那边debug下变量就行了,肯定有结果的

问:要变量的值,如何把变量值传出来呢,要先传到MCU域嘛?

黄峰:这款芯片没有用到,不过变量值基本就是保存成结构体信息给到下游,至于是否要传到MCU域就不是太清楚了

  1. 读博做自动驾驶方向,大佬们有什么推荐的研究方向吗

擎天柱:现在非常推荐一些方兴未艾的方向,比如世界模型,自动驾驶和大模型的结合等等

问:那要做这个方向的话,算力要求大概需要到什么水平啊

擎天柱:世界模型这种应该要求都比较高,可能得32卡a100起步,多看看论文里面的配置

  1. 各位大佬,请问一下有没有鱼眼相机和小孔相机之间转换或者矫正的相关资料呀。这块没接触过,想学习一下。谢谢各位大佬!

萌主:可以看看opencv的文档:

https://docs.opencv.org/4.1.2/db/d58/group__calib3d__fisheye.html

  1. 咨询下各位大佬,我目前在一家车机芯片设计公司从事嵌入式多媒体软件的开发,有意转投自动驾驶领域,什么方向切入会比较合适?能否给些学习入门的建议

拜谢了

萌主:有开发和嵌入式基础,可以从模型部署切入,TensorRT相关的。

往事随风:直接转自动驾驶算法岗,可能比较难,特别是目前的行情。但是转部署岗,会更加容易一些。先转部署岗,再更靠近之后,转算法岗。

  1. 各位大佬好,本人刚接触BEV这块,想请教一下环视4路的鱼眼图像转换到鸟瞰视角,当前常用哪些方法嘛?

黄峰:现在都是直接用网络做了,主要有LSS方案和cross attention方案,可以看看bevdet和bevformer系列

  1. 定位建图后,如何量化评估建图的准确性呢?就是可以选取参照物体进行量画吗?比如说我有两个柱子,实际我测量的距离,和建图完后的距离,进行量化标准?

游振兴:这个确实是实际工程中比较难处理的。一般分为两个大的思路:1. 轨迹的精度,一般需要一些额外的真值设备辅助评估精度,比如高精度的惯导或者人工测量一些标记点和实际地图中的比较点的对比,或者放一些人工的maker(apriltag 标定板那种marker),使用marker进行回环匹配来确认精度。2. 轨迹的精度≠建图地图的精度,这块工程上一般是肉眼看地面和墙体的厚度,以及柱子这些是不是有重影。如果轨迹精度比较差或者存在局部形变,会存在局部的点云重影。也有一些定量的方法,需要结合感知语义分割或者语义建图来做,以语义建图为例,可以根据语义建图中,多帧的感知观测的发散程度来进行定量化评估

问:明白兴哥,现在高精度得惯导需要再投入传感器,成本上估计不好实现,现在得想法也是和您说的第二点类似,我保存了整张地图得点云,然后把他们分割出来,用尺子测量实际得长度和建图得到得长度进行对比,至于您说得“多帧的感知观测的发散程度来进行定量化评估"这一块儿得发散程度是指?

游振兴:比如将多帧的3D静态感知结果投影在一起,理论上同一个物体的多帧感知结果的bbox应该是重合的,如果他们不重合,这些bbox的顶点的发散程度可以作为轨迹发散的一种定量描述。可以选取一些置信度比较高的bbox,尽量降低感知结果误差的影响。也可以使用平面分割等,分割出地面,墙体等平面,计算这些平面的厚度。定量的基本思路还是结合感知结果来做

  1. 新人想请教几个小问题。1.想了解下电子外后视镜(cms)是如何实现的。其优势和准确性对比传统外后视镜,是因为屏在舱内更好识别吗?但在实现上不会导致更多的问题?摄像头会和其他模块的摄像头共用吗?准确性如何保证?2.技术人员在写算法时,是如何进行调研,认为自己使用的算法是主流或者优势?还是更多的是有就使用,只看能否实现?主不主流无所谓?3.本人希望成为懂技术的自动驾驶产品经理,能减轻技术人员的沟通成本,有没有书籍推荐?

Gloria:自动驾驶产品经理,极其依赖实操和项目经验,不是互联网产品经理那样看看书就能入门的。

黄峰:自动驾驶的产品要求很高,也比较新,需要实战历练,咱们马上就会有相关课程出来

  1. 新人请教几个问题。本人大龄码农,互联网行业大数据和后端开发方向。1) 大数据和智能驾驶有哪些结合点?在各种资料里很少提及,是因为大数据技术在智能驾驶领域里不关键?仅仅是一种成熟的基础能力?我说的大数据,指的是大数据平台、数据仓库、数据治理这些狭义的大数据技术 2) web应用或app在整个生态里,貌似跟智能驾驶还搭不上关系。智能驾驶、上层应用是两类不同的厂家?类比智能手机普及后的移动app,如果智能驾驶普及,未来会有多大前景?3) 智能驾驶的云平台目前在业界使用多吗?各厂家是自建,还是用阿里云、腾讯云这种平台?4) 介绍智能驾驶整体业务、技术架构的书籍或教程,有推荐吗?

Greg:可以看下这文:https://juicefs.com/zh-cn/blog/user-stories/ten-billion-level-small-files-storage-juicefs-best-practice-in-the-autonomous-driving-industry

对数据体量有个初步理解,AI平台对大数据平台的要求可不低。

萌主:1. 个人一点感受:

大数据技术对于智能驾驶来说很重要:比如数据采集后如何存储,在线处理和分析挖掘?需要数据平台的支持。而且如果做过在线高精地图相关的工作也知道,在线管理和更新地图也是一种应用;数据的隐私安全也需要数据仓库的管理技术。还有最重要的一点:自动驾驶模型训练,通过读取数据仓库中的数据,利用平台的分布式训练能力,加速模型训练和优化。2. 现在智能座舱应用这些web或app比较多,也有一些数据标注会用web 3. 云平台有用别人的(比如火山)也有自建的(比如华为)。4.可以星球搜索经典书籍:https://t.zsxq.com/12d7yX6k2

  1. 求分享社招产品岗经验呀,目前做智驾云端产品,想转车端产品,相关JD数量和内容较少,有没有啥隐性要求?哪些公司比较推荐?

黄峰:可以推荐几个面经,还不错,作为参考:

1.百度产品:

https://www.nowcoder.com/discuss/353159388393316352?sourceSSR=search

2.小鹏汽车产品岗:

https://ac.nowcoder.com/discuss/769397?type=0&order=0&page=1

3.高德地图产品岗:

https://www.nowcoder.com/discuss/353156336470925312

  1. 提问:请教下各位大佬,想深入研究occupancy。12g显存的硬件条件可行吗?

黄峰:有点难,multi-camera的需要稍微大点显存,不过降低下计算量12G应该可以,就是不知道效果怎么样了

擎天柱:太难了,R50的backbone都难跑起来,更别说跑更大的模型了

邱超:那看来不太好做个方向,和算力强相关了

  1. MaptrV2与基于地面印刷物的图像分割的区别。想请教下基于多路相机的地面印刷物图像分割后的点云,基于IPM投影转到自车坐标系后理论上效果可以和MaptrV2生成的BEV应该是一个效果,那么想请教下,Maptrv2 这类型的网络模型与多路的图像分割后的区别和优势点主要在哪里?

Gloria:可以看之前我们的视频,星球里面可以搜(顶部搜索栏),关键词:maptr

擎天柱:IPM直接损失了高度的信息,而利用环视相机则不一样,理论上是可以得到3D特征的,再利用LSS等方法得到2D的BEV特征,这个BEV特征和IPM还是有很大差距的,一是包含了一定的高度信息,二是能够利用跨相机间的信息

  1. 想问一下大佬,关于batchnorm和layernorm在模型部署的时候可以去掉嘛,去掉应该怎么做才对结果没有影响呢?

萌主:batchnorm层是可以合并到卷积层里面的,合并前后基本没影响。NLP里面用LayerNorm多一些吧,这个暂时不好去吧,参考:https://zhuanlan.zhihu.com/p/143664360

阿伟:这个mergeBN让我想起了RepVGG哈哈哈哈

  1. 请问有适合在windows复现的域适应模型吗(天气适应,白天黑夜适应,城市乡村适应,合成数据和真实数据的适应都可以)

萌主:这块开源的还是不多,但是windows上只是一个部署问题吧,和具体算法是不是关系不大。

  1. 请问各位,在安装argoverse-api时候,提示No matching distribution found for setuptools>=40.8.0,但是环境已经安装了setuptools,详情如下,请问有大佬知道怎么解决了吗?

笨驴子:指定一下最低要求的版本 pip install setuptools==40.8.0 但是这可能引起其他包的依赖问题 最好建立一个新的环境 如conda 或python3-venv

黄峰:版本需求不一致把

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值