这种分解方式也被叫做大核注意力(Large Kernel Attention),即LKA。如上图所示,一个很大kernel size的卷积被分解成一个Depth-wise卷积+一个Depth-wise空洞卷积+一个1× \times× 1卷积。这样,就可以大大减少FLOPs和参数量。很有效地解决了小核卷积的local性。

class AttentionModule(nn.Module):def __init__(self, dim):super().__init__()self.conv0 = nn.Conv2d(dim, dim, 5, padding=2, groups=dim)  #depth-wise convself.conv_spatial = nn.Conv2d(dim, dim, 7, stride=1, padding=9, groups=dim, dilation=3)   #conv_spatialself.conv1 = nn.Conv2d(dim, dim, 1)  # 1x1 convdef forward(self, x):u = x.clone()        attn = self.conv0(x)attn = self.conv_spatial(attn)attn = self.conv1(attn)return u * 

大核注意力Large Kernel Attention(LKA)相关推荐

  1. VAN(大核注意力机制)

    Visual-Attention-Network/VAN-Classification (github.com) transformer在视觉领域得到良好的效果,是因为它可以捕捉长距离的信息.在视觉领 ...

  2. 【论文阅读】Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs

    [论文阅读]Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs 1.摘要 2.通过ViTs审视CNN 3. ...

  3. Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs笔记

    论文地址:https://arxiv.org/pdf/2203.06717.pdf 代码地址:GitHub - DingXiaoH/RepLKNet-pytorch: Scaling Up Your ...

  4. 图解时间自适应卷积----Time-aware Large Kernel Convolutions

    论文:Time-aware Large Kernel Convolutions 链接:arxiv.org/pdf/2002.03184v1.pdf 偶尔看到一篇比较有意思的论文,其提出的方法设计得很巧 ...

  5. 深度学习论文: Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs及其PyTorch实现

    深度学习论文: Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs及其PyTorch实现 Scaling ...

  6. RepLKNet:Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs

    <Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs> 论文: https://arxiv.o ...

  7. 语义分割--Large Kernel Matters--Improve Semantic Segmentation by Global Convolutional Network

    Large Kernel Matters–Improve Semantic Segmentation by Global Convolutional Network https://arxiv.org ...

  8. 注意力机制~Attention Mechanism

    目录 背景 1. Attention Function 2. Scaled Dot-Product Attention 3. Multi-attention --> Q, K=V 4. self ...

  9. Large Kernel Matters

    Large Kernel Matters 论文信息 论文地址:Large Kernel Matters --Improve Semantic Segmentation by Global Convol ...

  10. 深入理解注意力机制(Attention Mechanism)和Seq2Seq

    学习本部分默认大家对RNN神经网络已经深入理解了,这是基础,同时理解什么是时间序列,尤其RNN的常用展开形式进行画图,这个必须理解了. 这篇文章整理有关注意力机制(Attention Mechanis ...

最新文章

  1. DOS命令大全(转)
  2. 利用金山快盘云服务搭建自己的SVN服务器
  3. 文件上传案例阻塞问题
  4. [Redux/Mobx] redux和flux的区别是什么?
  5. 工作328:uni-两个页面对象传递
  6. TensorFlow 2.0 - 张量/自动求导/梯度下降
  7. Linux环境下怎么使用pip,linux下pip的安装步骤及使用详解
  8. 机器人驾驶的神经网络愿景(下)
  9. Linux环境下gcc静态编译/usr/bin/ld: cannot find -lc错误原因及解决方法。
  10. POJ 3125 Printer Queue(队列,水题)
  11. leetcode [209]长度最小的子数组/Minimum Size Subarray Sum 【暴力解法】【滑动窗口解法】
  12. C++ std::condition_variable 是什么 有什么用 条件变量 线程同步 wait wait_for notify_one notify_all
  13. mysql 创建和查询数据库和表格
  14. 机器学习 --- 4. 大内密探HMM(隐马尔可夫)围捕赌场老千(转)
  15. IMSettings 1.5.1 发布,输入法设置工具
  16. html5 video断点续播,vue-video-player 断点续播的实现
  17. 在一所普通211高校读本科在TOP2高校读研究生的感触
  18. 【Shader进阶】Shader的Lod
  19. 复旦大学和中科大 计算机,强基计划遇冷?!复旦大学和中科大都没招满...
  20. 方向比努力重要,能力比知识重要,健康比成绩重要,生活比文凭重要,情商比智商重要

热门文章

  1. 计算机硬盘应该什么格式化,硬盘应该格式化成哪种格式为好?
  2. 3分钟教你绘制一个围棋棋盘
  3. 首份2020信创报告出炉,四大巨头市场格局立现(附全文下载)
  4. 深度学习与PyTorch入门实战教程
  5. NCH ClickCharts(流程图绘制软件)v4.10 汉化免费版
  6. 博饼程序-Java实验
  7. 蓝桥杯试题c语言蛇形填数,2020十月份蓝桥杯B组省赛题解大全(害!附题面文件和部分代码~)...
  8. SwiftUI HealthKit 基础教程
  9. 单精度和双精度的区别
  10. 伪C++开发连连看(补充)