当前位置: 首页 > news >正文

网站含义上海猎头公司推荐

网站含义,上海猎头公司推荐,免费的ui设计的网站,seo在哪可以学# 本段代码构建类BiLSTM, 完成初始化和网络结构的搭建 # 总共3层: 词嵌入层, 双向LSTM层, 全连接线性层 # 本段代码构建类BiLSTM, 完成初始化和网络结构的搭建 # 总共3层: 词嵌入层, 双向LSTM层, 全连接线性层 import torch import torch.nn as nn# 本函数实现将中文文本映射为…

# 本段代码构建类BiLSTM, 完成初始化和网络结构的搭建
# 总共3层: 词嵌入层, 双向LSTM层, 全连接线性层

# 本段代码构建类BiLSTM, 完成初始化和网络结构的搭建
# 总共3层: 词嵌入层, 双向LSTM层, 全连接线性层
import torch
import torch.nn as nn# 本函数实现将中文文本映射为数字化张量
def sentence_map(sentence_list, char_to_id, max_length):"""将句子中的每一个字符映射到码表中:param sentence_list: 待映射的句子,类型为字符串或列表:param char_to_id: 码表,类型为字典,格式为格式为{"字1": 1, "字2": 2},例如:码表与id对照:char_to_id = {"双": 0, "肺": 1, "见": 2, "多": 3, "发": 4, "斑": 5, "片": 6,"状": 7, "稍": 8, "高": 9, "密": 10, "度": 11, "影": 12, "。": 13}:param max_length::return: 每一个字对应的编码,类型为tensor"""# 字符串按照逆序进行排序,不是必须操作sentence_list.sort(key=lambda c:len(c), reverse = True)# 定义句子映射列表sentence_map_list = []for sentence in sentence_list:# 生成句子中每个字对应的id列表sentence_id_list =[char_to_id[c] for c in sentence]# 计算所要填充0的长度padding = [0] * (max_length-len(sentence))# 组合sentence_map_list.append(sentence_id_list)# 返回句子映射集合,转为标量return torch.tensor(sentence_map_list, dtype= torch.long)class BiLSTM(nn.Module):"""BiLSTM模型定义"""def __init__(self, vocab_size, tag_to_id, input_feature_size, hidden_size,batch_size, sentence_length, num_layers=1, batch_first=True):"""description: 模型初始化:param vocab_size:          所有句子包含字符大小:param tag_to_id:           标签与 id 对照:param input_feature_size:  字嵌入维度( 即LSTM输入层维度 input_size ):param hidden_size:         隐藏层向量维度:param batch_size:          批训练大小:param sentence_length      句子长度:param num_layers:          堆叠 LSTM 层数:param batch_first:         是否将batch_size放置到矩阵的第一维度"""# 类继承初始化函数super(BiLSTM, self).__init__()# 设置标签与id对照self.tag_to_id = tag_to_id# 设置标签大小, 对应BiLSTM最终输出分数矩阵宽度self.tag_size = len(tag_to_id)# 设定LSTM输入特征大小, 对应词嵌入的维度大小self.embedding_size = input_feature_size# 设置隐藏层维度, 若为双向时想要得到同样大小的向量, 需要除以2self.hidden_size = hidden_size // 2# 设置批次大小, 对应每个批次的样本条数, 可以理解为输入张量的第一个维度self.batch_size = batch_size# 设定句子长度self.sentence_length = sentence_length# 设定是否将batch_size放置到矩阵的第一维度, 取值True, 或Falseself.batch_first = batch_first# 设置网络的LSTM层数self.num_layers = num_layers"""构建词嵌入层: 字向量, 维度为总单词数量与词嵌入维度参数: 总体字库的单词数量, 每个字被嵌入的维度"""self.embedding = nn.Embedding(vocab_size, self.embedding_size)self.bilstm = nn.LSTM(input_size=input_feature_size,hidden_size=self.hidden_size,num_layers=num_layers,bidirectional=True,batch_first=batch_first)# 构建全连接线性层: 将BiLSTM的输出层进行线性变换self.linear = nn.Linear(hidden_size, self.tag_size)print("=" * 100)
# 参数1:码表与id对照
char_to_id = {"双": 0, "肺": 1, "见": 2, "多": 3, "发": 4, "斑": 5, "片": 6,"状": 7, "稍": 8, "高": 9, "密": 10, "度": 11, "影": 12, "。": 13}# 参数2:标签码表对照
tag_to_id = {"O": 0, "B-dis": 1, "I-dis": 2, "B-sym": 3, "I-sym": 4}
# 参数3:字向量维度
EMBEDDING_DIM = 200
# 参数4:隐层维度
HIDDEN_DIM = 100
# 参数5:批次大小
BATCH_SIZE = 8
# 参数6:句子长度
SENTENCE_LENGTH = 20
# 参数7:堆叠 LSTM 层数
NUM_LAYERS = 1# 初始化模型
"""
model = BiLSTM(vocab_size=len(char_to_id),tag_to_id=tag_to_id,input_feature_size=EMBEDDING_DIM,hidden_size=HIDDEN_DIM,batch_size= BATCH_SIZE,sentence_length= SENTENCE_LENGTH,num_layers=NUM_LAYERS)print(model)
"""
http://www.yayakq.cn/news/959345/

相关文章:

  • 手游做网站推广应该怎么做贵州铁路建设网站
  • 代做效果图的网站好品网站建设公司
  • 网站的基本设置潜江市住房城乡建设厅网站
  • 如何上传自己的视频做网站个人网站用移动硬盘做服务器
  • 专注高端品牌网站的设计wordpress加载图片很慢
  • 营销型网站建设公司排名免费php网站模板下载
  • app网站建设可行性分析深圳小程序服务商
  • 网站域名过期怎么做电子商务网站建设课程性质
  • 学校网站建设流程图建个静态网站
  • 网站的优化策略方案拉新平台
  • 建设部规范网站获奖类网站建设推广策划案
  • 青岛做网站的管家婆客户管理系统
  • 工业品公司做商城网站好吗惠州学院网站建设
  • xp花生壳做自己的网站如何充实网站内容
  • 虚拟电子商务网站建设前期规划方案龙华区民治街道
  • 做网站上饶c 能用来做网站
  • 网站建设通用代码学校做网站一般多少钱
  • 嘉禾手机网站建设网页制作公司介绍
  • 网站开发总结与收获韩国网站 后缀
  • 用php做的网站怎么上传玖玖建筑网官方网
  • 网站运营维护郴州网红景点
  • 获取网站浏览者手机号海口网站建设做网站
  • 网站开发的项目流程图网站规划与建设 第2版ppt
  • 手机网站被禁止访问怎么设置打开镇江网站seo公司
  • 苏州高端网站制作官网网站排名推广的优点是什么
  • 北京做环评备案的网站wordpress实现注册功能
  • 做网站改版的公司网站制作费用申请
  • 电商网站会员体制怎么做大连宏帝建设网站
  • 基于开源框架的网站开发拓者设计吧手机版
  • 购买游戏软件做网站wordpress文章底部添加自定义内容