当前位置: 首页 > news >正文

网站前期建设页面设计与制作专业

网站前期建设,页面设计与制作专业,象山县住房建设局网站,有创意的网络营销案例机器学习-激活函数的直观理解 在机器学习中,激活函数(Activation Function)是用于引入非线性特性的一种函数,它在神经网络的每个神经元上被应用。 如果不使用任何的激活函数,那么神经元的响应就是wxb,相当…

机器学习-激活函数的直观理解

在机器学习中,激活函数(Activation Function)是用于引入非线性特性的一种函数,它在神经网络的每个神经元上被应用。

如果不使用任何的激活函数,那么神经元的响应就是wx+b,相当于线性的。由此,任意数量的线性激活的神经元叠加,其功能和单个线性激活的神经元一致(线性叠加后仍然是线性的)。

1、几种常用的激活函数

线性激活函数:也相当于没有激活函数,其作用相当于线性叠加:
在这里插入图片描述


Sigmoid函数:Sigmoid函数是一个典型的逻辑函数,它会将任何实数映射到0到1之间。然而,它在输入值非常大或非常小的时候,会出现梯度消失的问题。f(x) = 1 / (1 + e^(-x))
在这里插入图片描述


Tanh函数:Tanh函数与Sigmoid函数非常相似,它会将任何实数映射到-1到1之间。和Sigmoid函数一样,它也存在梯度消失的问题。Tanh函数相对于原点对称,在处理某些具有对称性的问题时,Tanh可能会比Sigmoid更有优势。f(x) = (e^x - e^(-x)) / (e^x + e^(-x))
在这里插入图片描述


ReLU函数:ReLU(Rectified Linear Unit)是一种常用的激活函数,它对负数输出0,对正数则直接输出该数值。由于其简单性和在多层神经网络中的表现,ReLU在很多深度学习模型中得到了应用。但是它可能会在训练过程中出现神经元“死亡”的情况。f(x) = max(0, x)

死亡:当神经网络的权重更新导致神经元的输入变为负值,由于ReLU函数的特性,其输出将会为0,并且在后续的训练中,该神经元的输出将一直保持为0,因此某些神经元会不起作用。
在这里插入图片描述


Leaky ReLU:为了解决ReLU的“死亡”神经元问题,人们提出了Leaky ReLU激活函数。Leaky ReLU允许负数的小斜率,这样即使输入是负数,神经元也不会完全失效。在x小于0时有一个极小的负斜率。
在这里插入图片描述


Softmax函数:Softmax函数常用于多分类神经网络的输出层,因为它可以给出输入数据属于每个类别的概率。


Swish函数:Swish是一种自门控激活函数,它在深度学习模型中表现出了优于ReLU的性能。Swish函数的形状介于ReLU和Sigmoid之间。f(x) = x * sigmoid(βx)
在这里插入图片描述

2、激活函数的直观理解

让我们来拟合一个函数,其目标如下所示:
在这里插入图片描述
使用两层网络进行建模,其中第一层包含两个神经元(激活函数如下待定),第二层包含一个线性激活的神经元。

线性激活函数:首先使用线性激活函数作为第一层两个神经元的激活函数,训练得出的最终结果如下所示,由此可见多个线性激活神经元等效于一个神经元,因为最终得到的还是线性函数:
在这里插入图片描述


ReLU函数:其次使用ReLU函数作为第一层两个神经元的激活函数,在理想的情况下会得到如下的拟合结果,相当于是两个ReLU函数的组合,一个是直接向左平移,一个是翻转后平移:
在这里插入图片描述
在这里插入图片描述
但是ReLU在训练时可能会出现神经元死亡现象(上面解释过了),此时继续迭代也不会给性能带来提升(相当于陷入局部最优了),如:
在这里插入图片描述
由此可见,激活函数就是拟合的最小单元。


Leaky ReLU:使用Leaky ReLU可以避免ReLU在训练时导致的死亡现象,每次训练都能得到满意的结果:
在这里插入图片描述

Sigmoid函数:Sigmoid函数在此处实际上更有优势,因为其实际上就是一个连续的曲线(Tanh同理):
在这里插入图片描述

总结:激活函数就是拟合最终结果的最小单元,最终结果就是激活函数的平移反转或多次计算。上面的例子第二层是线性激活,因此最终结果相当于是第一层结果的线性叠加

3、结论分析

总结:激活函数就是拟合最终结果的最小单元,最终结果就是激活函数的平移反转或多次计算。上面的例子第二层是线性激活,因此最终结果相当于是第一层结果的线性叠加

显然,如果将第一层的两个神经元改为1个,就只会使用一个激活函数去进行拟合,Sigmoid的案例如;在这里插入图片描述

4、代码

# 引入相关的包
import numpy as np
import matplotlib.pyplot as plt
import tensorflow as tf
from keras.models import Sequential
from keras.layers import Dense
import warnings
warnings.simplefilter(action='ignore', category=UserWarning)
# 创建要拟合的函数
X = np.linspace(0,2*np.pi, 100)
y = np.cos(X)+1
X=X.reshape(-1,1)
# 画图(可选)
fig,ax = plt.subplots(1,1, figsize=(4,3))
ax.plot(X,y)
plt.show()
# 构建模型
model = Sequential([# Dense(2, activation="linear", name = 'l1'),Dense(2, activation="sigmoid", name = 'l1'),# Dense(2, activation="tanh", name='l1'),# Dense(2, activation="relu", name='l1'),# Dense(2, activation="leaky_relu", name='l1'),# Dense(2, activation="swish", name='l1'),Dense(1, activation="linear", name = 'l2')]
)
model.compile(loss=tf.keras.losses.MeanSquaredError(),optimizer=tf.keras.optimizers.Adam(0.04),
)
model.fit(X,y,epochs=300
)
# 进行模型预测
yhat = model.predict(X)
fig,ax = plt.subplots(1,1, figsize=(4,4))
ax.plot(X,y)
ax.plot(X,yhat)
plt.show()
# 进行模型预测
l1 = model.get_layer('l1')
l2 = model.get_layer('l2')
l1.get_weights()
l2.get_weights()
http://www.yayakq.cn/news/371542/

相关文章:

  • e2ee网站开发莱芜网站优化公司
  • 沈阳微营销网站制作泰安招聘网上市场
  • 网站建设目的主要包括哪些小程序商城模板下载
  • 数字博物馆网站建设内容企业宣传册设计
  • wordpress 页眉万能优化大师下载
  • 网站设计 分辨率网站建设培训公司哪家好
  • 延庆上海网站建设大连建网站需要多少钱
  • 怎么才能打开一些网站建设一批适合青少年的网站
  • 做民宿注册的网站做外贸在哪个网站比较好
  • 做电子画册的网站一个公司做两个网站有影响吗
  • 石家庄企业自助建站国外做的比较好看的网站
  • dw怎么做秋季运动会网站网络推广平台
  • 英文营销网站 知乎中国网站建设公司有哪些
  • 如何用手机建网站百度seo怎么把关键词优化上去
  • WordPress站内链接设置山东酷雅展陈装饰有限公司
  • 做网站难度wordpress 宝塔加速
  • 北京市城乡住房建设部网站so域名的网站有哪些
  • 成都网站排名优化报价中国百强城市榜单排名
  • 番禺网站建设服务贪玩游戏原始传奇官网
  • 用jsp做的网站在不同浏览器显示效果差异很大如何解决快批小程序的收费标准
  • 中国开发网站的公司行程卡微信小程序入口
  • 沈阳做网站的自主式响应网站
  • 高端建网站网推公司
  • 企业网站模板湖南岚鸿模板lamp网站开发黄金组合
  • 企业为什么要做网站网络工程师前景如何
  • 幻灯片网站源码怎么给网站做动图
  • 新手网站建设大型网上购物商城
  • 服装高端网站建设seo国外推广软件
  • .net是建网站的吗河北省建设网站锁安装什么驱动
  • 如何优化网站排名手机如何登录wordpress