6月17日,在全球最大的计算机视觉会议CVPR的自动驾驶研讨会上,谷歌旗下自动驾驶公司Waymo宣布公开包含完整传感器信息的、带标注的驾驶数据。封闭还是开放,这是一个始终萦绕在自动驾驶行业里的问题。Waymo一反常态选择从封闭的状态走向开放共享数据,是从战略上进行了较大的调整,在封闭和开放的天平上向开放进行了倾斜,可以说是“想开了”。但在数据开放的问题上,百度Apollo一年前就选择了开放,奠定了自动驾驶加速发展的道路:早在2018年3月,百度Apollo就发布了Apollo数据并正式开放ApolloScape大规模自动驾驶数据集。
百度 Apollo在 CVPR 2018发布自动驾驶数据集ApolloScape
此次Waymo公布的数据集包含了3000段平均时长为20秒的驾驶记录,整个数据集包含六十万帧数据,约2500万3D边界框、2200万2D边界框,以及多样化的自动驾驶场景。数据公开之后,Waymo无人车传感器的特点也将一览无余。
Waymo公开自动驾驶数据集
但Waymo公开数据集的做法在自动驾驶行业内并首例。2018年3月8日,百度Apollo自动驾驶开放平台正式加入加州大学伯克利DeepDrive深度学习自动驾驶产业联盟,正式开放ApolloScape大规模自动驾驶数据集,这一举措将学术与企业紧密相连,也为无人车行业如虎添翼。
ApolloScape数据集中逐像素级别的标注示例
自动驾驶感知技术众多且难度大,其主要目的是实现场景的语义理解。以检测技术为例,其目的是在图像或者点云中找到涵盖物体的二维或者三维矩形框。现有的包括Waymo发布的数据集主要针对的就是这类检测技术。作为较为领先开放的数据集,ApolloScape是行业内环境最复杂、标注最精准的三维自动驾驶公开数据集。更重要的是,ApolloScape为开发更多的自动驾驶感知技术提供了不同的数据集,这些数据集可服务于,除了上述的物体检测技术,还包括物体及实例级别的分割技术,三维姿态估计,物体轨迹跟踪技术,相机自主定位技术,深度图像估计技术等等。目前ApolloScape已经发布了五个公开数据集包括场景解析,细粒度车道线,定位,三维车辆拟合和稠密轨迹。
ApolloScape中的场景解析(scene parsing)数据集包括了14.7万帧的具备逐像素语义标注的图像,相对于包括Waymo在内的仅具备矩形框标注的数据集,像素级标注提供了更为细致的而且不受物体间的遮挡影响的场景信息,旨在推动更为精准的视频场景语义理解技术。除了二维视频图像,其每帧相关的三维点云也被逐点标注了语义信息。另外,图像的逐像素标注的时间工作量超过了矩形框标注的工作量十倍以上。