全屏背景网站滨州网站建设费用
ShuffleAttention注意力机制简介
 关于ShuffleAttention注意力机制的原理这里不再详细解释.论文参考如下链接here
  
yolov5中添加注意力机制
  注意力机制分为接收通道数和不接受通道数两种。这次属于接受通道数注意力机制,这种注意力机制由于有通道数要求,所示我们添加的时候需要注意一下子。
  
 ✨ 第一步:在models的文件夹下新建一个.py文件,格式为我们(注意力机制名字.py),如下图所示
  
 
 
 ✨ 第二步:添加官方提供的注意力机制代码,这里我提供给大家
 ShuffleAttention.py
# author@mawei szu
import numpy as np
import torch
from torch import nn
from<