斯坦福视觉与学习实验室研究团队在一篇名为「JRDB:用于人类环境中导航的视觉感知的数据集和基准」的研究中介绍了他们从其社交移动操纵器 JackRabbot 收集的新颖数据集 JRDB
斯坦福视觉与学习实验室研究团队在一篇名为「JRDB:用于人类环境中导航的视觉感知的数据集和基准」的研究中介绍了他们从其社交移动操纵器 JackRabbot 收集的新颖数据集 JRDB。
数据集包括 64 分钟的多模式传感器数据,包括 15 fps 的立体圆柱 360 度 RGB 视频,两个 Velodyne 16 激光雷达的 3D 点云,两个 Sick 激光雷达的线 3D 点云,音频信号,30 fps 的 RGBD 视频,360 度球形鱼眼镜头拍摄的图像和机器人车轮的编码器值。
该数据集包括来自传统上代表性不足的场景(例如室内环境和行人区域)的数据,这些数据来自固定和导航机器人平台。该数据集已标注了超过 230 万个包围盒,这些包围盒分布在场景中的所有人周围的 5 个单独的摄像头中,以及 180 万个相关的 3D 长方体,总计超过 3500 条时间一致的轨迹。
除此以外,研究团队为 2D 和 3D 人检测和跟踪启动了基准和度量。借助计划在将来进行进一步注释的数据集,研究团队希望提供新的数据源以及测试平台,以用于研究机器人自主导航以及人类环境中围绕社交机器人的所有感知任务。
场景 | 室内环境和行人区域 |
发布时间 | 2019年 |