当前位置: 首页 > news >正文

网站源码传到服务器上后怎么做网站架构布局

网站源码传到服务器上后怎么做,网站架构布局,淘宝客怎么做直播网站吗,怎样做网站后台RNN 特点:输入层是层层相关联的,输入包括上一个隐藏层的输出h1和外界输入x2,然后融合一个张量,通过全连接得到h2,重复 优点:结构简单,参数总量少,在短序列任务上性能好 缺点&#x…

RNN

特点:输入层是层层相关联的,输入包括上一个隐藏层的输出h1和外界输入x2,然后融合一个张量,通过全连接得到h2,重复
优点:结构简单,参数总量少,在短序列任务上性能好
缺点:在长序列中效果不好,容易梯度提升或者爆炸

import torch
import torch.nn as nn
import torch.nn.functional as F# 参数一: 输入张量的词嵌入维度5, 参数二: 隐藏层的维度(也就是神经元的个数), 参数三: 网络层数
rnn = nn.RNN(5, 6, 2)# 参数一: sequence_length序列长度, 参数二: batch_size样本个数, 参数三: 词嵌入的维度, 和RNN第一个参数匹配
input1 = torch.randn(1, 3, 5)# 参数一: 网络层数, 和RNN第三个参数匹配, 参数二: batch_size样本个数, 参数三: 隐藏层的维度, 和RNN第二个参数匹配
h0 = torch.randn(2, 3, 6)output, hn = rnn(input1, h0)
# print(output.shape)
# torch.Size([1, 3, 6])
# print(hn.shape)
# torch.Size([2, 3, 6])

LSTM

解决了RNN的缺点,在长序列中效果好,现在仔细研究中间图的结构

在这里插入图片描述

最左边是的黄色矩形部分是遗忘门,就是结合前一层的的h1+输入x2拼接,然后经过全连接层后输出ft,就是把之前的一些信息遗忘一部分,
在这里插入图片描述

第二第三是一部分输入门,拼接完过后经过全连接结合σ激活函数it,以及拼接后用一个tanh激活函数ct,然后和上一层的结合起来
在这里插入图片描述
第三部分是输出门,图的右边黄色的矩形到结尾
在这里插入图片描述
此外Bi-LSTM,是双向的,相当于运用了两层LSTM但是方向不同,前面是单向的,信息从左到右的的传递相当于考虑前面的信息,Bi-LSTM是左右信息都考虑,然后拼接结果

# -------------------------------------
import torch
import torch.nn as nnlstm=nn.LSTM(5,6,2)
input=torch.randn(1,3,5)
h0=torch.randn(2,3,6)
c0=torch.randn(2,3,6)
output,(hn,cn)=lstm(input,(hn,cn))#-------------------------class Attention(nn.Module):def __init__(self, query_size, key_size, value_size1, value_size2, output_size):super(Attention, self).__init__()self.query_size = query_sizeself.key_size = key_sizeself.value_size1 = value_size1self.value_size2 = value_size2self.output_size = output_sizeself.attn = nn.Linear(self.query_size + self.key_size, self.value_size1)self.attn_combine = nn.Linear(self.query_size + self.value_size2, self.output_size)def forward(self, Q, K, V):attn_weights = F.softmax(self.attn(torch.cat((Q[0], K[0]), 1)), dim=1)attn_applied = torch.bmm(attn_weights.unsqueeze(0), V)output = torch.cat((Q[0], attn_applied[0]), 1)output1 = self.attn_combine(output).unsqueeze(0)return output1, attn_weightsquery_size = 32
key_size = 32
value_size1 = 32
value_size2 = 64
output_size = 64
attn = Attention(query_size, key_size, value_size1, value_size2, output_size)
Q = torch.randn(1, 1, 32)
K = torch.randn(1, 1, 32)
V = torch.randn(1, 32, 64)
res = attn(Q, K, V)
# print(res[0])
# print(res[0].shape)
# print('*****')
# print(res[1])
# print(res[1].shape)# --------------------------------------------
http://www.yayakq.cn/news/200124/

相关文章:

  • 网站制作论文文献综述成都专业手机网站建设推广
  • 淘宝在哪个网站做推广制作彩票网站需要多少钱
  • 文登南海建设局网站乌托邦网站建设
  • 实用写作网站自己做小程序商城
  • 检察院门户网站建设情况流程网站
  • 陕西省建设厅人力资源网站哪有那样的网站
  • 聊城做企业网站的模板网站制作平台
  • a站下载安装和一起做网店差不多的网站
  • 深圳网站制作建设服务公司建设银行重庆分行网站
  • 邵阳做网站哪个公司好网站产品链接怎么做
  • 建设厅国网查询网站物理网络设计
  • 柳州哪家网站建设专业城市建设管理
  • 沈阳网站建设聚艺科技国内时事新闻2023最新
  • 学网站开发可以创业吗wordpress连接
  • 网站搭建与生成技术教材商务型网站模板
  • 男女做那种的的视频网站网店运营推广实训
  • 阿里云wordpress搭建网站网店装修教程免费模板
  • 邯郸网站制作建设可遇公寓网站哪个公司做的
  • 免费网站开发公司长沙品牌网站制作服务报价
  • 山西网站建设服务公司在线阅读网站开发
  • 找个网站看看h5网站开发定制
  • 有美元进账去外管局网站做啥百度教育app
  • 建设工程英语网站wordpress重新安装博客怎么搬家
  • 58同城如何发布网站建设php做动漫网站
  • 网站网站制作开发需要哪些技术三合一网站建设口碑好
  • 旅游网站策划方案做大型网站需要多少钱
  • 网站建设站长相关专业网站跟app的区别是什么
  • 网站二维码制作网站后台编辑
  • 网站开发入门培训厦门网站建设u
  • 内蒙古包头做网站的公司比特币交易网站开发