(回到顶部)
## 任务 数据集的首要任务是**场景结构感知和推理**,这需要模型能够识别周围环境中车道的可行驶状态。 该数据集的任务不仅包括车道中心线和交通要素检测,还包括检测到的对象的拓扑关系识别。 我们定义了[**OpenLane-V2 Score (OLS)**](./docs/metrics.md#openlane-v2-score),该指标为各个子任务指标的平均值: $$ \text{OLS} = \frac{1}{4} \bigg[ \text{DET}_{l} + \text{DET}_{t} + f(\text{TOP}_{ll}) + f(\text{TOP}_{lt}) \bigg]. $$ 子任务的指标如下所述: ### 3D车道线检测 🛣️ [OpenLane](https://github.com/OpenDriveLab/OpenLane) 数据集是迄今为止第一个真实世界和规模最大的 3D 车道数据集,提供 3D 空间下的车道线标注。 在OpenLane基础上,我们将 3D 车道检测的任务定义如下:从覆盖整个水平 FOV(视场角-Field Of View) 的多视图中检测带方向的 3D 车道中心线。 用平均精度 $mAP_{LC}$ 指标评估车道中心线的检测性能。
(回到顶部)
## 信息发布 - [2023/02] * 数据集 `v1.0`: `subset_A` 数据发布。 * 基模型发布。 - [2023/01] * 数据集 `v0.1`: OpenLane-Huawei 数据集样本发布。 * 开发工具 `v0.1.0`: OpenLane-Huawei 开发工具发布。(回到顶部)
## 数据 OpenLane-Huawei 数据集是自动驾驶领域用于道路结构感知和推理的大规模数据集。 与 [OpenLane](https://github.com/OpenDriveLab/OpenLane) 数据集一致,我们提供三维空间中的车道真值。与之有区别的是,OpenLane-Huawei 提供的是车道中心线的3D标注,而OpenLane提供的是车道分割线3D标注。此外,我们还提供了交通标志(交通灯和路标)及其属性的2D框标注,和车道中心线之间以及车道中心线与交通要素之间的拓扑关系标注。 数据集分为两个子集。 **`subset_A`作为主要子集,服务于即将到来的比赛和排行榜,比赛中不允许任何外部数据,包括本数据集其他子集**。 `subset_B`可以用来测试模型的泛化能力。 更多信息请参考对应的页面:[使用数据](./data/README.md)、[标注文档](./docs/annotation.md)与[数据统计](./docs/statistics.md)。 现在就[下载](./data/README.md#download)我们的数据集来发现更多!(回到顶部)
## 开发工具 我们提供了一个开发工具来方便社区熟悉并使用 OpenLane-Huawei 数据集。 可以通过 `openlanv2` 的API实现数据集的使用,例如加载图像、加载元数据和评估结果。 更多开发工具信息请参考[开发工具](./docs/devkit.md)。(回到顶部)
## 入门指南 按照以下步骤熟悉 OpenLane-Huawei 数据集: 1. 运行以下命令安装必要的工具包,完成研究环境准备: ```sh git clone https://github.com/OpenDriveLab/OpenLane-V2.git cd OpenLane-V2 conda create -n openlanev2 python=3.8 -y conda activate openlanev2 pip install -r requirements.txt python setup.py develop ``` 2. 点击[链接](./data/README.md#download)从合适的渠道下载数据: -(回到顶部)
## 训练模型 我们提供不同神经网络训练框架的插件来支持在我们的数据集上训练模型。 如果缺少你常用的训练框架,我们欢迎你的提议或对插件的共同维护。 ### mmdet3d 这个[插件](./plugin/mmdet3d/)基于 [mmdet3d v1.0.0rc6](https://github.com/open-mmlab/mmdetection3d/tree/v1.0.0rc6),并且在以下的环境中进行过测试: - Python 3.8.15 - PyTorch 1.9.1 - CUDA 11.1 - GCC 5.4.0 - mmcv-full==1.5.2 - mmdet==2.26.0 - mmsegmentation==0.29.1 请按照 mmdet3d 的[指引](https://github.com/open-mmlab/mmdetection3d/blob/v1.0.0rc6/docs/en/getting_started.md)来安装这个训练框架。 假设这个数据集安装在 `OpenLane-V2/` 目录下,并且 mmdet3d 安装在 `mmdetection3d/` 目录下,你可以通过软连接的方式将该插件引入到训练框架中: ``` └── mmdetection3d └── projects ├── example_project └── openlanev2 -> OpenLane-V2/plugin/mmdet3d ``` 在将数据路径换成你的本地路径之后,你可以使用我们提供的 config 文件 `mmdetection3d/projects/openlanev2/configs/baseline.py` 来进行模型训练和各种 mmdet3d 中支持的操作。 并且可以通过在对模型进行推理时输入不同的选项来获取不同的功能,已经实现的功能有:`--eval-options dump=True dump_dir=/PATH/TO/DUMP` 来存储用于上传测试集结果的文件;`--eval-options visualization=True visualization_dir=/PATH/TO/VIS` 来对模型输出进行可视化。(回到顶部)
## 基准和排行榜 我们将提供 OpenLane-Huawei 数据集的初始基准测试,欢迎您在这里添加您的工作! 基准和排行榜将在不久后发布,请持续关注。 | Method | OLS (main metric) (%) | $mAP_{LC}$ (%) | $mAP_{TE}$ (%) | $mAP_{LCLC}$ (%) | $mAP_{LCTE}$ (%) | F-Score* (%) | | - | - | - | - | - | - | - | | Baseline | 0.29 | 0.08 | 0.31 | 0.00 | 0.01 | 8.56 | *在比赛和排行榜中不考虑车道中心线检测的 F-Score。(回到顶部)
## 引用 使用 OpenLane-Huawei 时请使用如下引用: ```bibtex @misc{ openlanev2_dataset, author = {{OpenLane-V2 Dataset Contributors}}, title = {{OpenLane-V2: The World's First Perception and Reasoning Benchmark for Scene Structure in Autonomous Driving}}, url = {https://github.com/OpenDriveLab/OpenLane-V2}, license = {Apache-2.0}, year = {2023} } ``` 我们的数据集是基于[NuScenes](https://www.nuscenes.org/nuscenes) 和[Argoverse](https://www.argoverse.org/av2.html)数据集工作拓展而来。如果引用本作,也请使用如下引用: ```bibtex @article{ nuscenes2019, author = {Holger Caesar and Varun Bankiti and Alex H. Lang and Sourabh Vora and Venice Erin Liong and Qiang Xu and Anush Krishnan and Yu Pan and Giancarlo Baldan and Oscar Beijbom}, title = {nuScenes: A multimodal dataset for autonomous driving}, journal = {arXiv preprint arXiv:1903.11027}, year = {2019} } @INPROCEEDINGS { Argoverse2, author = {Benjamin Wilson and William Qi and Tanmay Agarwal and John Lambert and Jagjeet Singh and Siddhesh Khandelwal and Bowen Pan and Ratnesh Kumar and Andrew Hartnett and Jhony Kaesemodel Pontes and Deva Ramanan and Peter Carr and James Hays}, title = {Argoverse 2: Next Generation Datasets for Self-driving Perception and Forecasting}, booktitle = {Proceedings of the Neural Information Processing Systems Track on Datasets and Benchmarks (NeurIPS Datasets and Benchmarks 2021)}, year = {2021} } ```(回到顶部)
## 许可说明 使用 OpenLane-Huawei 数据集时,您需要在网站上注册并同意 [nuScenes](https://www.nuscenes.org/nuscenes) 和 [Argoverse 2](https://www.argoverse.org/av2.html) 数据集的使用条款。 本项目的发布受 [Apache License 2.0](./LICENSE)许可认证。(回到顶部)