当前位置: 首页 > news >正文

菜鸟式网站建设图书退役厅网站建设中标公告

菜鸟式网站建设图书,退役厅网站建设中标公告,新闻热点事件摘抄及评论,公司网站设计维护深度学习面试准备 深度学习图像算法工程师–面试准备(1) 深度学习图像算法工程师–面试准备(2) 文章目录 深度学习面试准备前言一、Batch Normalization(批归一化)1.1 具体步骤1.2 BN一般用在网络的哪个部分 二、Layer Normaliza…

深度学习面试准备

深度学习图像算法工程师–面试准备(1)
深度学习图像算法工程师–面试准备(2)


文章目录

  • 深度学习面试准备
  • 前言
  • 一、Batch Normalization(批归一化)
    • 1.1 具体步骤
    • 1.2 BN一般用在网络的哪个部分
  • 二、Layer Normalization(层归一化)
  • 三、 Internal Covariate Shift
  • 总结


前言

参考文章


一、Batch Normalization(批归一化)

  • BatchNormalization的作用是通过规范化的手段,将越来越偏的分布拉回到标准化的分布,使得激活函数的输入值落在激活函数对输入比较敏感的区域,从而使梯度变大,加快学习收敛速度,避免梯度消失的问题。
  • 使得每层网络的输入都服从(0,1)0均值,1方差分布,如果不进行BN,那么每次输入的数据分布不一致,网络训练精度自然也受影响。
  • 在Batch中进行 Normalization 计算,其实就是在每个通道进行一次计算,即计算范围是 [Batch, 1, Height,Width],计算次数是 Channel。

1.1 具体步骤

在这里插入图片描述

  1. 计算样本均值。
  2. 计算样本方差。
  3. 样本数据标准化处理。
  4. 进行平移和缩放处理。引入了γ和β两个参数。来训练γ和β两个参数。引入了这个可学习重构参数γ、β,让我们的网络可以学习恢复出原始网络所要学习的特征分布。

1.2 BN一般用在网络的哪个部分

先卷积再激活做BN
Conv+BN+Relu
Batch normalization 的 batch 是批数据, 把数据分成小批小批进行 stochastic gradient descent. 而且在每批数据进行前向传递 forward propagation 的时候, 对每一层都进行 normalization 的处理。

二、Layer Normalization(层归一化)

LN和BN不同,LN是根据样本的特征数来做归一化的,完全独立于batch size。在一个Layer中进行计算,可以理解是一个样本中进行Normalization,即计算范围是 [1, Channel, Height, Width],计算次数是 Batch。
常应用于循环神经网络(RNN)等结构,以解决对于不定长度序列的输入数据的归一化问题。

三、 Internal Covariate Shift

Internal Covariate Shift(内部协变量转移)是指神经网络在训练过程中每一层输入数据分布的变化,即随着网络参数的更新,每一层的输入数据的分布也会发生变化。这种内部协变量转移可能会导致训练过程变得更加困难,因为每一层都需要适应不断变化的输入数据分布。

Internal Covariate Shift 的问题在于,当神经网络每一层的输入数据的分布发生变化时,之前学习到的权重可能就不再适用,这会导致训练过程变得不稳定,需要更小的学习率和更仔细的调参来收敛。同时,由于每一层的输入数据分布的变化,网络可能需要更多的训练样本才能学到有效的表示。

为了解决 Internal Covariate Shift 的问题,批量归一化(Batch Normalization)被引入到神经网络中。批量归一化通过对每一层的输入数据进行归一化,使得每层的输入数据分布保持稳定,有助于加速训练过程、提高模型的泛化能力,并且减少对初始权重的依赖。


总结

  • BN的优点:

  • 可以解决“Internal Covariate Shift”

  • 解决梯度消失的问题(针对sigmoid),加快收敛速度。

  • 对初始权重不那么敏感:BN 使得网络对初始权重的选择不那么敏感,减少了调参的困难。

  • BN的缺点:

  1. 计算代价:BN 需要额外的计算量来计算均值和方差,可能会增加训练时间。
  2. 不适用于小批量数据:在小批量数据上表现可能不稳定,因为均值和方差的估计可能不准确。
  • LN的优点:
  1. 不依赖于batch size。
  2. 适用于RNN;
  • LN的缺点:
  1. 不适用于CNN。
  2. 针对具有多个连续特征的数据,进行特征之间的缩放,可能会导致量纲差异消失。
  3. 局部归一化:LN 是在每个样本中所有特征的维度上进行归一化,可能会丢失通道间的信息,不够全局。
  4. 缓慢的收敛速度:相对于 BN,LN 可能导致收敛速度较慢,需要更多的训练时间。
http://www.yayakq.cn/news/671047/

相关文章:

  • 自适应全屏网站公司形象vi设计
  • 织梦做网站简单吗wordpress 无限下拉菜单
  • 企业网站怎么建郑州最好的男科医院哪家好
  • 营销型网站收费app制作教学课程
  • 营销型网站要点辽宁建设厅证件查询网站
  • 网站建设基本流程包括哪几个步骤手机一键生成户型图
  • 做淘宝券推广的网站有哪些cms文章管理系统
  • 建网站需要服务器吗用npp做网站
  • 湖南建设厅网站勘查设计wordpress菜单怎么设置中文
  • 网站开发表格整体页面居中阿里云的国际网站建设
  • 做初中题赚钱的网站百度云搜索引擎入口盘多多
  • 企业网站建设及运营现状分析极验验证 wordpress
  • 网站建设验收确认书二道江网站建设
  • 企业网站建设需要提供什么内容网站建设包括啥
  • 国内出色的网站建设公司导航单页模板wordpress
  • 做电子烟外贸网站有哪些网站宝二级域名怎么设置
  • 广州网站建设广州百度seo公司哪家好一点
  • 怎么检查网站有没有被挂马国外做自动化网站
  • 福田建网站公司如何用html做网站
  • 杂志社网站模板租空间做网站需要多少钱
  • 网站开发如何入门电子商务网站建设规划方案
  • 广告流量投放SEO网站布局优化
  • 惠州企业建站模板广州做网站的网络公司排名
  • 网站建设项目描述范文seo是什么职业合法吗
  • 最好网站开发公司电话网站建设比较好
  • 长沙做网站咨询公司不通过网站可以做360全景吗
  • 想做网站去哪里做网站开发求职信
  • 网站上怎么做星星评分wordpress文章输出数
  • 建设行政主管部门网站WordPress手机端底部悬浮窗
  • 2_网站建设的一般步骤包含哪些?免费制作公司网站