当前位置: 首页 > news >正文

水泥网站营销方案怎么做个人做的网站能备案吗

水泥网站营销方案怎么做,个人做的网站能备案吗,wordpress文章页面title,做会所网站的文章目录 0 前言1 课题背景2 实现效果3 DeepSORT车辆跟踪3.1 Deep SORT多目标跟踪算法3.2 算法流程 4 YOLOV5算法4.1 网络架构图4.2 输入端4.3 基准网络4.4 Neck网络4.5 Head输出层 5 最后 0 前言 #x1f525; 优质竞赛项目系列#xff0c;今天要分享的是 #x1f6a9; *… 文章目录 0 前言1 课题背景2 实现效果3 DeepSORT车辆跟踪3.1 Deep SORT多目标跟踪算法3.2 算法流程 4 YOLOV5算法4.1 网络架构图4.2 输入端4.3 基准网络4.4 Neck网络4.5 Head输出层 5 最后 0 前言 优质竞赛项目系列今天要分享的是 **基于深度学习得交通车辆流量分析 ** 该项目较为新颖适合作为竞赛课题方向学长非常推荐 学长这里给一个题目综合评分(每项满分5分) 难度系数3分工作量3分创新点5分 更多资料, 项目分享 https://gitee.com/dancheng-senior/postgraduate 1 课题背景 在智能交通系统中利用监控视频进行车流量统计是一个研究热点。交管部门通过实时、准确地采集车流量信息可以合理分配交通资源、提高道路通行效率有效预防和应对城市交通拥堵问题。同时随着车辆数量的增加交通违章现象频出例如渣土车违规上道、工程车辆违规进入城市主干道、车辆停放在消防通道等这一系列的交通违规行为给城市安全埋下了巨大隐患。对于交通管理者而言加强对特定车辆的识别和分类管理尤为重要。然而在实际监控识别车辆时相当一部分车辆图像存在图像不全或者遮挡问题极大降低了监控识别准确率。如何准确识别车辆是当前车辆检测的重点。 根据实际情况本文将车辆分为家用小轿车、货车两类进行车辆追踪和速度识别。 2 实现效果 可识别图片视频中的轿车和货车数量检测行驶速度并实时显示。 关键代码 ​ # 目标检测def yolo_detect(self, im):img self.preprocess(im)pred self.m(img, augmentFalse)[0]pred pred.float()pred non_max_suppression(pred, self.conf_thres, self.iou_thres )pred_boxes []for det in pred:if det is not None and len(det):det[:, :4] scale_coords(img.shape[2:], det[:, :4], im.shape).round()for *x, conf, cls_id in det:lbl self.names[int(cls_id)]x1, y1 int(x[0]), int(x[1])x2, y2 int(x[2]), int(x[3])pred_boxes.append((x1, y1, x2, y2, lbl, conf))return pred_boxes3 DeepSORT车辆跟踪 多目标在线跟踪算法 SORTsimple online andrealtime tracking利用卡尔曼滤波和匈牙利匹配将跟踪结果和检测结果之间的IoU作为代价矩阵实现了一种简单高效并且实用的跟踪范式。但是 SORT 算法的缺陷在于所使用的关联度量association metric只有在状态估计不确定性较低的情况下有效因此算法执行时会出现大量身份切换现象当目标被遮挡时跟踪失败。为了改善这个问题Deep SORT 将目标的运动信息和外观信息相结合作为关联度量改善目标消失后重新出现导致的跟踪失败问题。 3.1 Deep SORT多目标跟踪算法 跟踪处理和状态估计 Deep SORT 利用检测器的结果初始化跟踪器每个跟踪器都会设置一个计数器在卡尔曼滤波之后计数器累加当预测结果和检测结果成功匹配时该计数器置为0。在一段时间内跟踪器没有匹配到合适的检测结果则删除该跟踪器。Deep SORT 为每一帧中新出现的检测结果分配跟踪器当该跟踪器连续3帧的预测结果都能匹配检测结果则确认是出现了新的轨迹否则删除该跟踪器。 Deep SORT使用 8维状态空间描述目标的状态和在图像坐标系中的运动信息。表示目标检测框的中心坐标分别表示检测框的宽高比例和高度表示前面四个参数在图像坐标中的相对速度。算法使用具有恒定速度模型和线性观测模型的标准卡尔曼滤波器将检测框参数作为对象状态的直接观测值。 分配问题 Deep SORT 结合运动信息和外观信息使用匈牙利算法匹配预测框和跟踪框。对于运动信息算法使用马氏距离描述卡尔曼滤波预测结果和检测器结果的关联程度如公式中 分别表示第 j 个检测结果和第 i 个预测结果的状态向量Si 表示检测结果和平均跟踪结 当目标运动信息不确定性较低的时候马氏距离是一种合适的关联因子但是当目标遮挡或者镜头视角抖动时仅使用马氏距离关联会导致目标身份切换。因此考虑加入外观信息对每一个检测框 dj 计算出对应的外观特征描述符 rj 并且设置。对于每一个跟踪轨迹 k 设置特征仓库用来保存最近100条目标成功关联的特征描述符。计算第 i 个跟踪框和第 j 个检测框最小余弦距离如公式 当小于指定的阈值认为关联成功。 马氏距离在短时预测情况下可以提供可靠的目标位置信息使用外观特征的余弦相似度可以在目标遮挡又重新出现时恢复目标 ID为了使两种度量的优势互补使用线性加权的方式进行结合 3.2 算法流程 Deepsort算法的工作流程如下图所示 源码流程 主函数部分整体逻辑是比较简单的首先是将命令行参数进行解析解析的内容包括MOTChanlleng序列文件所在路径、需要检测文件所在的目录等一系列参数。解析之后传递给run方法开始运行。 进入run函数之后首先会收集流信息包括图片名称检测结果以及置信度等后续会将这些流信息传入到检测框生成函数中生成检测框列表。然后会初始化metric对象metric对象简单来说就是度量方式在这个地方我们可以选择两种相似度的度量方式第一种叫做余弦相似度度量另一种叫做欧拉相似度度量。通过metric对象我们来初始化追踪器。 接着根据display参数开始生成对应的visuializer如果选择将检测结果进行可视化展示那么便会生成Visualization对象我从这个类中可以看到它主要是调用opencv image viewer来讲追踪的结果进行展示。如果display是false则会生成一个NoVisualization对象它一个虚拟可视化对象它以给定的顺序循环遍历所有帧以更新跟踪器而无需执行任何可视化。两者主要区别其实就是是否调用opencv将图片展示出来。其实前边我们所做的一系列工作可以说都是准备的工作实际上核心部分就是在执行这个run方法之后。此处我们可以看到在run方法中传入了一个frame_callback函数这个frame_callback函数可以说是整个算法的核心部分每一帧的图片都会执行该函数。 4 YOLOV5算法 6月9日Ultralytics公司开源了YOLOv5离上一次YOLOv4发布不到50天。而且这一次的YOLOv5是完全基于PyTorch实现的在我们还对YOLOv4的各种高端操作、丰富的实验对比惊叹不已时YOLOv5又带来了更强实时目标检测技术。按照官方给出的数目现版本的YOLOv5每个图像的推理时间最快0.007秒即每秒140帧FPS但YOLOv5的权重文件大小只有YOLOv4的1/9。 目标检测架构分为两种一种是two-stage一种是one-stage区别就在于 two-stage 有region proposal过程类似于一种海选过程,网络会根据候选区域生成位置和类别而one-stage直接从图片生成位置和类别。今天提到的 YOLO就是一种 one-stage方法。YOLO是You Only Look Once的缩写,意思是神经网络只需要看一次图片就能输出结果。YOLO 一共发布了五个版本其中 YOLOv1 奠定了整个系列的基础后面的系列就是在第一版基础上的改进为的是提升性能。 YOLOv5有4个版本性能如图所示 4.1 网络架构图 YOLOv5是一种单阶段目标检测算法该算法在YOLOv4的基础上添加了一些新的改进思路使其速度与精度都得到了极大的性能提升。主要的改进思路如下所示 4.2 输入端 在模型训练阶段提出了一些改进思路主要包括Mosaic数据增强、自适应锚框计算、自适应图片缩放 Mosaic数据增强Mosaic数据增强的作者也是来自YOLOv5团队的成员通过随机缩放、随机裁剪、随机排布的方式进行拼接对小目标的检测效果很不错 4.3 基准网络 融合其它检测算法中的一些新思路主要包括Focus结构与CSP结构 4.4 Neck网络 在目标检测领域为了更好的提取融合特征通常在Backbone和输出层会插入一些层这个部分称为Neck。Yolov5中添加了FPNPAN结构相当于目标检测网络的颈部也是非常关键的。 FPNPAN的结构 这样结合操作FPN层自顶向下传达强语义特征High-Level特征而特征金字塔则自底向上传达强定位特征Low- Level特征两两联手从不同的主干层对不同的检测层进行特征聚合。 FPNPAN借鉴的是18年CVPR的PANet当时主要应用于图像分割领域但Alexey将其拆分应用到Yolov4中进一步提高特征提取的能力。 4.5 Head输出层 输出层的锚框机制与YOLOv4相同主要改进的是训练时的损失函数GIOU_Loss以及预测框筛选的DIOU_nms。 对于Head部分可以看到三个紫色箭头处的特征图是40×40、20×20、10×10。以及最后Prediction中用于预测的3个特征图 ​ ①40×40×255 ②20×20×255③10×10×255​ 相关代码 ​ class Detect(nn.Module):stride None # strides computed during buildonnx_dynamic False # ONNX export parameterdef __init__(self, nc80, anchors(), ch(), inplaceTrue): # detection layersuper().__init__()self.nc nc # number of classesself.no nc 5 # number of outputs per anchorself.nl len(anchors) # number of detection layersself.na len(anchors[0]) // 2 # number of anchorsself.grid [torch.zeros(1)] * self.nl # init gridself.anchor_grid [torch.zeros(1)] * self.nl # init anchor gridself.register_buffer(anchors, torch.tensor(anchors).float().view(self.nl, -1, 2)) # shape(nl,na,2)self.m nn.ModuleList(nn.Conv2d(x, self.no * self.na, 1) for x in ch) # output convself.inplace inplace # use in-place ops (e.g. slice assignment)def forward(self, x):z [] # inference outputfor i in range(self.nl):x[i] self.m[i](x[i]) # convbs, _, ny, nx x[i].shape # x(bs,255,20,20) to x(bs,3,20,20,85)x[i] x[i].view(bs, self.na, self.no, ny, nx).permute(0, 1, 3, 4, 2).contiguous()if not self.training: # inferenceif self.onnx_dynamic or self.grid[i].shape[2:4] ! x[i].shape[2:4]:self.grid[i], self.anchor_grid[i] self._make_grid(nx, ny, i)y x[i].sigmoid()if self.inplace:y[..., 0:2] (y[..., 0:2] * 2 - 0.5 self.grid[i]) * self.stride[i] # xyy[..., 2:4] (y[..., 2:4] * 2) ** 2 * self.anchor_grid[i] # whelse: # for YOLOv5 on AWS Inferentia https://github.com/ultralytics/yolov5/pull/2953xy (y[..., 0:2] * 2 - 0.5 self.grid[i]) * self.stride[i] # xywh (y[..., 2:4] * 2) ** 2 * self.anchor_grid[i] # why torch.cat((xy, wh, y[..., 4:]), -1)z.append(y.view(bs, -1, self.no))return x if self.training else (torch.cat(z, 1), x)def _make_grid(self, nx20, ny20, i0):d self.anchors[i].deviceif check_version(torch.__version__, 1.10.0): # torch1.10.0 meshgrid workaround for torch0.7 compatibilityyv, xv torch.meshgrid([torch.arange(ny).to(d), torch.arange(nx).to(d)], indexingij)else:yv, xv torch.meshgrid([torch.arange(ny).to(d), torch.arange(nx).to(d)])grid torch.stack((xv, yv), 2).expand((1, self.na, ny, nx, 2)).float()anchor_grid (self.anchors[i].clone() * self.stride[i]) \.view((1, self.na, 1, 1, 2)).expand((1, self.na, ny, nx, 2)).float()return grid, anchor_grid5 最后 更多资料, 项目分享 https://gitee.com/dancheng-senior/postgraduate
http://www.yayakq.cn/news/2658/

相关文章:

  • 广州网站建设公司嘉御北京做机床的公司网站
  • 网站设计风格怎么写网站可以跟博客做互链吗
  • 企业网站首页怎么优化做网站和管理系统
  • vue做网站前端专业网站开发公司地址
  • 菜鸟制作个人网站网页实例成都哪里做网站好
  • 南宁建设厅官方网站电商网页设计教程
  • 上线了怎么做网站wordpress简约新闻自媒体主题
  • 大型网站服务器多少钱南京奥体建设公司
  • 婚纱网站建设微信群杭州网站前端建设
  • 网站建设一般分为几个步骤旅游网页代码
  • 网站 系统设置东莞网站建
  • 四川做网站建设银行住房贷款网站
  • 商城网站建设哪个比较好做个什么网站
  • 上海网站推广专员需求北京seo关键词排名
  • 建筑设计规范网站唐山教育平台网站建设
  • 门户网站营销特点一级消防工程师考试地点
  • 如何查询网站被百度收录锦绣大地seo
  • weui做购物网站的案例深圳罗湖企业网站推广
  • 网站开发要会英语吗游戏推广在哪里接活
  • 后台更新的内容在网站上不显示wordpress主题结构
  • 盐山建网站cms+wordpress模板
  • o元做网站all import wordpress
  • 随州网站推广哪家权威在线阅读网站开发教程
  • 只做移动端的网站wordpress移动端分享
  • app网站建设公司有网址如何做网站赚钱
  • 深圳专业专业网站建设wordpress插件必备
  • 做网站宣传网站设计需求分析报告
  • 网站的空间和域名备案平顶山高端网站建设
  • 网站内的搜索是怎么做的wordpress cnki
  • 新沂建设网站wordpress 数据库备份