这个URL可以是任何云存储库上的地址。
当然,也可以上传本地视频,不过就需要走命令行了——
先克隆仓库地址并安装依赖:
cdautomatic-video-processing
condacreate--namemyenvpython=3.7
condaactivatemyenv
pipinstall-rrequirements.txt
然后运行脚本,使用下面这两个参数上传本地视频:
pythonrun.py—sieve_api_key你的密钥
平台会自动为你生成一个URL。
视频上传后,等待系统自动将数据分割成帧,并给每一帧生成相应的元数据(这些元数据就是“标记”,方便我们后续查询时定位到相应画面)。
作者表示,一个24小时长、大约有27万帧画面的视频不到10分钟就能处理完。
接着就可以开始最期待的环节——查询了。
查询需使用固定的参数。
比如选人数的person_count,我们输入“3” ,不到几秒就会出现如下结果:
嗯,很满意,连这种只露出两条腿的人它也可以检测出来:
每张图片都可以点开放大查看,右边也会显示该帧图片的原始信息。
不过似乎只有帧的位置,没有显示具体时间点。
其他参数还包括:
person_present,查询有人出现的画面(赋值为True就行);
motion_detected,查询动态画面;
lighting,查询各种光线的画面(比如赋值fair,就代表晴天);
loaction,查询某个地点的画面(比如赋值courtyard);
greenery,查询有绿色植物出现的画面;
……
可以组合查询,比如找“有绿色植物、光线晴朗、出现俩人”的画面,就可以输入这样三个参数: