数据来自论文《Fall Detection》
实验场景
本文的实验数据来自德克萨斯大学阿灵顿分校的 Heracleia人类中心计算实验室的实验。
在这个实验室中,已经设置了一个模拟公寓。在公寓的两个角落设置了两个 Kinect,并设置了监控公寓。设置两个 Kinect 的原因是深度传感器的范围为 0:5m 到 4m,这意味着一个 Kinect不足以覆盖整个公寓。
左侧为深度图,右侧为彩色地图。
实验数据
六个主题分别在两个场景中执行多个动作。从以下链接下载数据集。
Zhong view2http://vlm1.uta.edu/~zhangzhong/fall_detection_data_set/Zhong/view2/depth.rar)
至于如何阅读深度图,请使用以下matlab 文件。
这些动作包括真正的跌倒和其他像跌倒一样的行为,如从地板上捡起一枚硬币,坐在地板上,系鞋带等。场景 1 有 10400 帧和 12 个真实下降,而场景 2 中有 21214 帧和 14 个真实下降。下表显示了实验中的坠落操作。
Pf | Ts | Sb | Sif | Pd | Jb | Sf |
---|---|---|---|---|---|---|
23 | 10 | 9 | 12 | 5 | 1 | 1 |
在上表中,pf的意思是从地板上捡东西,ts的意思是系鞋带,sb意味着睡在床上,sif的意思是坐在地板上,pd的意思是打开离地板很近的下抽屉,jb 意味着跳到地板上,sf 意味着睡在地板上。
以下图显示了下降过程。
坠落过程
我们还对每个秋季流程的开始和结束框架进行注释。
In the annotation file, the format is like: Alexis view1 202 215.
Alexis is the user name. view1 means scene 1. 202 is the start frame and 215 is the end frame.
下图显示了一个典型的跌倒般的动作,它坐在地板上。
坐在地板上