当前位置: 首页 > news >正文

内网建设网站徐州网站建设方案咨询

内网建设网站,徐州网站建设方案咨询,注册公司名字大全,国家水资源监控能力建设网站CNN,卷积神经网络,Convolution Neural Network 卷积计算公式:N (W-F2p)/s1 这个公式每次都得看看,不能忘 1 经典网络 按照时间顺序 1.1 LeNet LeNet是 Yann LeCun在1998年提出,用于解决手…

CNN,卷积神经网络,Convolution Neural Network

卷积计算公式:N = (W-F+2p)/s+1

这个公式每次都得看看,不能忘

1 经典网络

按照时间顺序

1.1 LeNet

LeNet是 Yann LeCun在1998年提出,用于解决手写数字识别的视觉任务。自那时起,CNN的最基本的架构就定下来了:卷积层、池化层、全连接层。

深度学习开山之作LeNet实战:(现代卷积神经网络/网络结构/原理解析/源码解读)、《Gradient-Based Learning Appliedto Document Recognition》_会害羞的杨卓越的博客-CSDN博客

1.2 AlexNet

深度学习奠基作AlexNet《ImageNet Classification with Deep Convolutional Neural Networks》之论文解读上篇_会害羞的杨卓越的博客-CSDN博客

AlexNet网络结构详解_会害羞的杨卓越的博客-CSDN博客

AlexNet是2012年ImageNet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计的,把CNN的基本原理应用到了很深很宽的网络中。

主要参数:AlexNet网络包含8层,其中前5层为卷积-池化层,后3层为全连接层;输入224×224×3的图像,第一卷积层用96个11×11×3的卷积核对进行滤波,步幅4像素;全连接的每层有4096个神经元,最后一个完全连接的层的输出被馈送到1000路SoftMax,它产生超过1000个类别标签的分布;整个网络共650000个神经元。

特点:

  • 使用ReLU作为激活函数,并验证其效果在较深的网络超过了Sigmoid,成功解决了Sigmoid在网络较深时的梯度弥散问题
  • 使用Dropout(丢弃学习)随机忽略一部分神经元防止过拟合
  • 在CNN中使用重叠的最大池化。此前CNN中普遍使用平均池化,AlexNet全部使用最大池化,避免平均池化的模糊化效果
  • 提出了LRN(Local Response Normalization,局部正规化)层,对局部神经元的活动创建竞争机制,使得其中响应比较大的值变得相对更大,并抑制其他反馈较小的神经元,增强了模型的泛化能力
  • 使用CUDA加速深度卷积网络的训练,利用GPU强大的并行计算能力,处理神经网络训练时大量的矩阵运算

1.3 VGG

  • 网络深度:16-19层
  • 5组卷积-池化,3个全连接
  • 三个全连接层,前两层都有4096通道,第三层共1000路及代表1000个标签类别;最后一层为softmax层
  • 所有卷积层有相同的配置,即卷积核大小为3x3,步长为1,填充为1

深度学习奠基作VGG《Very Deep Convolutional Networks for Large-Scale Image Recognition》(现代卷积神经网络/网络结构)_会害羞的杨卓越的博客-CSDN博客

1.4 GoogleNet

深度学习奠基作GoogleNet《Very Deep Convolutional Networks for Large-Scale Image Recognition》(现代卷积神经网络/网络结构)_会害羞的杨卓越的博客-CSDN博客

1.5 ResNet

深度学习最强奠基作ResNet《Deep Residual Learning for Image Recognition》论文解读(上篇)_会害羞的杨卓越的博客-CSDN博客

2 网络结构

2.1 卷积层

通过卷积操作,进行特征提取和降维。

2.2 激活层

将前一层的输出,通过非线性的激活函数进行处理,用以模拟任意维度的函数,增强网络的表征能力。

常用的激活函数:

  1. 阶跃函数(用的较少)
  2. sigmoid函数:
    • 优点:平滑,易求导
    • 缺点:激活函数计算量大,反向传播求误差梯度时,求导涉及除法;反向传播时,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练
    • 改善方案:归一化,用sk-learn函数处理
  3. tanh函数 常用于NLP,其他类似sigmiod函数
  4. Relu函数(常用),优点:
    • 更加有效率的梯度下降以及反向传播,避免了梯度爆炸和梯度消失问题
    • 计算过程简单
  5. softmax函数,特点:多分类模型适用

2.3 池化

也称子采样层或下采样层(Subsampling Layer),目的是缩小高、长方向上的空间的运算,以降低计算量,提高泛化能力。

计算方式:

  • Max池化:对于每个输入矩阵,我们将其切割成若干大小相等的正方形小块,对各个参与池化计算的区域取最大值,形成的新矩阵。在图像识别领域,主要使用Max池化
  • Average池化:对于每个输入矩阵,我们将其切割成若干大小相等的正方形小块,对各个参与池化计算的区域计算平均值

池化层特征:

  1. 没有要学习的参数。池化层和卷积层不同,没有要学习的参数。池化只是从目标区域中取最大值(或者平均值),所以不存在要学习的参数
  2. 通道数不发生变化。经过池化运算,输入数据和输出数据的通道数不会发生变化
  3.  对微小的位置变化具有鲁棒性(健壮)。输入数据发生微小偏差时,池化仍会返回相同的结果

 

2.4 全连接层

这个网络层相当于多层感知机(Multi-Layer Perceptron,简称MLP),其在整个卷积神经网络中起到分类器的作用。

通过前面多个“卷积-激活-池化”层的反复处理,待处理的数据特性已有了显著提高:一方面,输入数据的维度已下降到可用传统的前馈全连接网络来处理了;另一方面,此时的全连接层输入的数据已不是“泥沙俱下、鱼龙混杂”,而是经过反复提纯过的结果,因此输出的分类品质要高得多。

http://www.yayakq.cn/news/763555/

相关文章:

  • 营销型网站建设排名事业单位网站建设
  • 做公司网站一般多少钱南京网站制作搭建
  • 网站建设与实现的要求与务网页制作中的常见问题
  • 国外哪些网站做产品推广比较好建筑网建筑规范
  • 郑州作网站在货源网站自己拿样 加盟 做代理 哪个比较好?
  • 项目管理6个核心内容保定网站seo服务
  • 泉州企业网站制作哪家好怎么制作网站上传视频
  • 怎么查看网站有没有做301哈尔滨企业网站模板建站
  • 为什么国外网站有时打不开wordpress邮件发送失败
  • 网站建设教程免费cms与wordpress
  • 做芯片哪个网站推广找个网站怎么那么难
  • c语言开发网站后端大望路网站建设
  • 福州建网站公司论坛seo设置
  • 郑州餐饮网站建设哪家好网站建设的步骤教学
  • 最新网站推广防录屏网站怎么做
  • 网站布局fVs做的网站调试时如何适应网页
  • 网站业务费如何做记账凭证一学一做看视频网站
  • 县网站建设检查情况汇报两学一做网站视频
  • 宝山网站建设方案深圳高端网站设计开发
  • 上每网站建设微信网站制作软件
  • 阿里云服务器做网站安全吗中国十大采购平台app
  • 怎么建商城网站吗网络加盟
  • 做住宿的网站昆山企业网站建设
  • 网站开启gzip压缩单页网站的域名
  • 外贸网站建设规划个人网站流量怎么赚钱
  • 国外设计网站h开头wordpress 中型网站
  • 永康建设投标网站庐江住房建设局网站
  • 制作网站具体需要什么材料修改 wordpress footer
  • 哪家网站建设电话快递网站建站需要什么
  • 浙江省建设部网站现在网站给源码