博客
关于我
RTSP协议视频结构化平台EasyNVR指定时间段录像时间缺失问题排查
阅读量:574 次
发布时间:2019-03-10

本文共 1042 字,大约阅读时间需要 3 分钟。

EasyNVR具备丰富的二次开发接口,用户可根据需求自由调用和开发。在EasyNVR的实际项目测试中,客户调用了录像回看接口,生成指定时间段录像播放及下载,但是向我们反馈出现录像时间缺失的情况。比如获取0-25S的录像,但是最终生成的录像是从2s开始的,缺少了最开始2s的录像。也就是如下图的情况,需要获取20210408160405到20210408160422之间的录像,但最终生成的录像是从20210408160406分开始的。

64.png

查看代码,程序在遍历文件的时候进行了如下判断:

if secFileTime >= start && secFileTime <= end {   readSecFile = true}

该判断的内容就是,如果文件的时间大于等于开始时间则读取对应的文件。而因为 hls 流的特性,上一个ts视频的时间为 20210408160402 不符合条件,因此被排除了。但是 20210408160405 正好在该切片中,所以导致总体的数据缺少时间。

65.png

我们需要修改代码如下:

// 从名称中获取对应的秒数secFileTime := strings.Split(secFileName, "-")[1]readSecFile := false// 如果第一个文件小于开始时间,则查看下一个文件夹是不是大于文件夹,如果大于if secFileTime < start {   // 有下一个数据   if secFileIndex < secFileLen-1 {      nextInfo := secFileInfos[secFileIndex+1]      nextName := strings.Split(nextInfo.Name(), "-")[1]      if start < nextName {         readSecFile = true      }   }} else if secFileTime >= start && secFileTime <= end {   readSecFile = true}

在每次读取的时候,如果小于开始时间,都同时读取两个文件,判断时间是不是在两个文件中间,如果开始时间在两个文件中间,则也将对应的文件读取,该问题就能得到解决。

但是因为hls流的特性,每个切片的大小是固定的,该种方案会导致获取的时间永远大于等于想获取的时间段。如果想做精确处理,则需要针对 ts 进行再次切片。

转载地址:http://tzfvz.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从Oracle11G同步数据到Mysql_亲测可用_解决数据重复_数据跟源表不一致的问题---大数据之Nifi工作笔记0065
查看>>