thumbnail
Deep Texture-Aware Features for Camouflaged Object Detection
论文地址:Deep Texture-Aware Features for Camouflaged Object Detection 1 总览 通过学习纹理相关的特征,增大伪装目标和背景之间细微的差别,来更好的发现伪装目标。作者通过计算特征的协方差矩阵提取纹理特征,设计了相似度损失去学习参数图来放大背景和伪装目标之间的细微差异,用边缘一致性损失去完善…
thumbnail
Multiscale Vision Transformers
论文地址:Multiscale Vision Transformer  CVPR2021 1 introduction 在视觉领域,特征金字塔结构是一种常用的结构,即随着网络的加深,特征图的分辨率越来越小,但是特征图的深度,即channel数,越来越多。高空间分辨率的特征图具有low-level的细节信息,低分辨率的深层特征图具有high-leve…
thumbnail
Multiview Transformers for Video Recognition
论文地址:Multiview Transformers for Video Recognition  CVPR2022 文章是基于ViViT进行改造的 1 研究背景 在图像领域,多尺度处理通过金字塔结构实现。为了视频中的时间多尺度,以前SlowFast是有了2个分支。但是使用一个金字塔结构时,时间空间信息会因为下采样会有一部分信息的丢失。比如Slo…
thumbnail
Attention Feature Fusion
论文地址:Attention Feature Fusion 1 研究目的 特征融合是提高CNN表达能力的一种手段,它将来自不同层次或分支的特征进行组合。什么是特征融合?简单来说,就是有两个特征图X和Y,将X和Y以一定的weight(或者说attention)融合成一个新的特征图。目前来说,特征融合存在以下问题: 不健康的初始聚合:通常,在进行X+Y…
thumbnail
Instance Normalization
Instance Normalization(实例规范化,简称 IN)是一种在深度学习中使用的规范化技术,最初是为了图像风格转换任务而提出的。 1 规范化范围 IN是在单个样本(实例)的每个通道(每层特征)内进行规范化,独立于其他样本。 它对每个通道内的特征进行规范化,而不是跨整个批量(如BN)或整个层(如LN)。 2 计算过程 Instance …
thumbnail
Group Normalization
Batch Normalization,Layer Normalization 1 motivation 在视觉领域,其实最常用的还是BN,但BN也有缺点,通常需要比较大的Batch Size。如下图所示,蓝色的线代表BN,当batch size小于16后error明显升高(但大于16后的效果确实要更好)。对于比较大型的网络或者GPU显存不够的情况…
Layer Normalization and RMSNorm
预备知识:Batch Normalization 1 Batch Normalization局限性 假设把中国的收入水平进行标准化(变成标准正态分布),这时中国高收入人群的收入值接近3,中收入人群的收入值接近0,低收入人群接近-3。不难发现,标准化后的相对大小是不变的,即中国富人的收入水平在标准化前和标准化后都比中国穷人高。把中国的收入水平看成一个…
thumbnail
Batch Normalization
为什么要使用Batch Normalization? 使用浅层模型时,随着模型训练的进行,当每层中参数更新时,靠近输出层的输出较难出现剧烈变化。对深层神经网络来说,随着网络训练的进行,前一层参数的调整使得后一层输入数据的分布发生变化,各层在训练的过程中就需要不断的改变以适应学习这种新的数据分布。所以即使输入数据已做标准化,训练中模型参数的更新依然很…