当前位置: 首页 > news >正文

商城网站建站方案建设工程标准合同范本

商城网站建站方案,建设工程标准合同范本,重庆网站关键词排名,商城模板html使用 bert 来实现一个完形填空的案例,使用预训练模型 bert-base-chinese ,这个模型下载到跟代码同目录下即可,下载可参考:bert预训练模型下载-CSDN博客 通过这个案例来了解一下怎么使用预训练模型来完成下游任务,算是对…

使用 bert 来实现一个完形填空的案例,使用预训练模型 bert-base-chinese ,这个模型下载到跟代码同目录下即可,下载可参考:bert预训练模型下载-CSDN博客

通过这个案例来了解一下怎么使用预训练模型来完成下游任务,算是对怎么使用 bert 的流程有一个初步的了解,代码都写注释了,直接看代码注释就好:

import torch
from transformers import BertTokenizer, BertForMaskedLM, BertConfig#加载预训练模型 tokenizer (vocabulary),词表文件
tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')#输入文本
# [CLS] 表示段落开始,只有一个
# [SEP] 表示句子的结束,可以有多个
text = "[CLS] 我是谁 ? [SEP] zjk原来是程序员 [SEP]"
# 转换输入文本,有点像分词,如词在词表中找不到,会以 # 开头
tokenized_text = tokenizer.tokenize(text)
print(tokenized_text)# 将索引为 11 的字用 [MASK] 屏蔽,如果被屏蔽的是 # 那么预测不出来结果
masked_index = 11  # 掩码一个标记,用' BertForMaskedLM '预测回来
tokenized_text[masked_index] = '[MASK]'
print(tokenized_text)# 将标记转换为词汇表索引
indexed_tokens = tokenizer.convert_tokens_to_ids(tokenized_text)
print(indexed_tokens)# 将输入转换为PyTorch张量
tokens_tensor = torch.tensor([indexed_tokens])
print(tokens_tensor)#指定设备
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
print(device)# 加载预训练模型 (weights)
model = BertForMaskedLM.from_pretrained('bert-base-chinese')
# 为了确保模型在处理新样本时能提供稳定且具有代表性的预测结果,禁用dropout和batch normalization等在训练阶段启用但在预测时应关闭的功能。
model.eval()
model.to(device)# 段标识索引,标识输入文本中的第一句,第2据,0对应属于第一个句子的,1代表对应属于第二个句子的
segments_ids = [0, 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1]
segments_tensors = torch.tensor([segments_ids]).to(device)tokens_tensor = tokens_tensor.to(device)  # 输入句子的张量,其实就是每个字在词表中的索引
# 预测所有的tokens,可以理解为标准固定写法
with torch.no_grad():  # 模型不会累积梯度,适合用于预测任务outputs = model(tokens_tensor, token_type_ids=segments_tensors)  # 传入了tokens张量和对应的句子类型张量
# BERT模型的输出是一个元组,其中第一个元素通常是 mask 对应于每个位置上所有可能token的概率分布,
# 形状与输入tokens张量相同(这里为 [1, 16, 21128],表示batch大小为1、序列长度为16、词汇表大小为21128的三维张量)
# 的是模型在每次迭代更新参数时处理的样本数量,这里我们就处理了一个样本
predictions = outputs[0]  # [1, 16, 21128]
# 找到在mask位置上的概率最高的token索引。masked_index 是待预测 token 在 tokens 张量中的位置
predicted_index = torch.argmax(predictions[0, masked_index]).item()
predicted_token = tokenizer.convert_ids_to_tokens([predicted_index])[0]  # 转成单词
print('Predicted token is:', predicted_token)

运行结果:

http://www.yayakq.cn/news/151251/

相关文章:

  • 做好一个网站需要多久企业网站设计与建设
  • python 网站架构黄冈网站设计推广哪家好
  • 龙岗商城网站建设哪家便宜加强学院网站的建设与管理
  • 响应式网站建设哪家好成都网站建设创意
  • 知名手机网站优化内容
  • 长治网站制作怎么做成都广告设计公司排名
  • 网站seo优化推广教程企业营销型网站推广
  • 做班级网站代码怎么看网站有没有做百度推广
  • 信用湘潭网站国内十大咨询公司排名
  • 泡沫制品技术支持东莞网站建设爱站网爱情电影网
  • 手机网站js电话悬浮网站设计过程介绍
  • 用dw建设个人网站视频佛山网站设计联系方式
  • 兴科cms网站建设系统vr哪家公司做得好
  • 佛山南海网站建设设计logo网站免
  • 大专学网站开发服务器禁止ip访问网站
  • 湛江的网站wordpress 判断语言
  • 山西seo网站设计微信优惠券网站怎么做的
  • 建设法规网站wordpress外贸网站模板
  • 校网站建设方案网址大全123设为主页
  • 泰州企业网站模板建站济南济阳网站建设
  • 寻找做网站的合作伙伴北京惠州网站设计方案
  • 广东集团网站建设互联网营销是做什么的
  • ps做网站的视频王也气质头像
  • 企业备案查询系统太仓网站优化
  • 奢做品二手 哪个网站好有赞微商城网页版
  • 网站建设销售合同长春seo网站管理
  • 网站权限分配代码网站建设的ppt模板下载
  • django做的电子商务网站东莞核酸检测时间
  • 网站开发专业的领军人物百度收录情况
  • 网络游戏开发专业seo排名哪家正规