当前位置: 首页 > news >正文

做照片书网站好自媒体平台源码

做照片书网站好,自媒体平台源码,书生商友网站建设,上海外企1--概述 1. 自回归 TransFormer 规定Token只能看到自身及前面的Token,因此需生成一个符合规定的Attention Mask;(代码提供了两种方式自回归Attention Mask的定义方式); 2. 使用Cross Attention实现条件模态和输入模态之…

1--概述

        1. 自回归 TransFormer 规定Token只能看到自身及前面的Token,因此需生成一个符合规定的Attention Mask;(代码提供了两种方式自回归Attention Mask的定义方式);

        2. 使用Cross Attention实现条件模态和输入模态之间的模态融合,输入模态作为Query,条件模态作为Key和Value;

2--代码

import torch
import torch.nn as nnclass CrossAttention(nn.Module):def __init__(self, embed_dim: int, num_heads: int):super().__init__()self.cross_attn = nn.MultiheadAttention(embed_dim, num_heads)def forward(self, input_x: torch.Tensor, condition: torch.Tensor, attn_mask: torch.Tensor = None):'''query: input_xkey: conditionval: condition'''input_x = self.cross_attn(input_x, condition, condition, attn_mask=attn_mask)[0]return input_xclass Cond_Autoregressive_layer(nn.Module):def __init__(self, input_dim: int, condtion_dim: int, embed_dim: int, num_heads: int):super(Cond_Autoregressive_layer, self).__init__()self.linear1 = nn.Linear(input_dim, embed_dim)self.linear2 = nn.Linear(condtion_dim, embed_dim)self.cond_multihead_attn = CrossAttention(embed_dim = embed_dim, num_heads = num_heads)def forward(self, input_x: torch.Tensor, conditon: torch.Tensor, attention_mask1: torch.Tensor, attention_mask2: torch.Tensor):# q, k, v, attention mask, here we set key and value are both condtion y1 = self.cond_multihead_attn(self.linear1(input_x), self.linear2(conditon), attn_mask = attention_mask1)y2 = self.cond_multihead_attn(self.linear1(input_x), self.linear2(conditon), attn_mask = attention_mask2)return y1, y2if __name__ == "__main__":# set sequence len, embedding dim, multi attention headseq_length = 10input_dim = 32condtion_dim = 128embed_dim = 64num_heads = 8# init input sequence and condtioninput_x = torch.randn(seq_length, 1, input_dim)condtion = torch.randn(seq_length, 1, condtion_dim)# create two attention mask (actually they have the same function)attention_mask1 = torch.triu((torch.ones((seq_length, seq_length)) == 1), diagonal=1) # bool typeattention_mask2 = attention_mask1.float() # True->1 False->0attention_mask2 = attention_mask2.masked_fill(attention_mask2 == 1, float("-inf"))  # Convert ones to -inf# init modelAG_layer = Cond_Autoregressive_layer(input_dim, condtion_dim, embed_dim, num_heads)# forwardy1, y2 = AG_layer(input_x, condtion, attention_mask1, attention_mask2)# here we demonstrate the attention_mask1 and attention_mask2 have the same functionassert(y1[0].equal(y2[0]))

http://www.yayakq.cn/news/431594/

相关文章:

  • 数据库网站开发教程网站建设与推广范文
  • 建设个人网站对于网站界面
  • 深圳官方网站设计人力外包公司怎么赚钱
  • 成都自适应建站哪家好如何自建网站卖产品
  • 新网站如何做免费推广东莞建筑公司
  • 如何提高网站吸引力厦门市网站建设软件开发公司
  • 网站建设如何提案建筑图纸网站
  • 深圳罗湖区网站网站开发基础
  • 晋安网站建设photoshop下载免费版
  • 绍兴网站制作建设传播性wordpress主题
  • 网站的备案号查询百度文章收录提交入口
  • 连云港网站关键词优化服务免费的cms
  • 网站开发类参考文献苏州保洁公司招聘信息
  • 傻瓜式网站制作自己做网站挂广告
  • 邢台建设企业网站费用简述一个商务网站建设的步骤
  • 做简单手机网站多少钱呀服装网都有哪些网站
  • 那些网站可以做h5公司网站建设设计公司
  • 网站效果图设计思路珠海做网站最好的公司有哪些
  • 网站正在建设中 蓝色企业模板图片
  • 建设网站的计划表长春h5建站模板
  • 浙江做电缆桥架的公司网站阿里巴巴网站首页怎么制作
  • 域名注册免费杭州企业网站seo
  • 可以做视频创收的网站免费的模板网站
  • 公司营销型网站制作本钢建设公司官网
  • 自建公司网站品牌建设论文
  • 郑州网站备案地址哪个网站做简历免费
  • 快排做网站排名哪个网站做律师推广
  • 都芳漆中文网站建设重庆知名网站建设免费
  • 医疗网站搭建网站图片上传却不显示不出来
  • aspx php哪个做门户网站好唐山建网站的公司