发布时间:2023-04-20 文章分类:电脑百科 投稿人:樱花 字号: 默认 | | 超大 打印

        在这篇博客中,主要是收集到一些图像融合框架中引入Transformer结构的文章,提供给大家参考学习,目前图像融合领域引入Transformer结构的文章比较少(我所看到的比较少,也看可能我看的比较少?),主要作用就是把它作为一种提取特征的方式,或者说更倾向于long-range dependencies的建立。Transformer引入到图像融合领域的时间并不长,大部分文章都是2020-2022发出的,所有并没有统计发表年份。至于是具体是哪个会议或者期刊发表的并没有标注,有兴趣可以自己去查查。

       Transformer 主要是通过自注意力学习图像斑块之间的全局空间关系。 自注意力机制致力于建立long-range dependencies,从而在浅层和深层中更好地利用全局信息,所以 Transformer 的使用就是解决长序列问题的一个好方法。在 CV 领域中常用的就是 CNN,它可以提取本地的特征,因为每次卷积就是提取该卷积下的特征图,在局部信息的提取上有很大优势,但无法关注图像的长期依赖关系,阻碍了复杂场景融合的上下文信息提取。所以, Transformer 的引入主要解决这个问题。

        下面这个思维导图从单任务和多任务的角度进行设计的,简单看看吧!!!

图像融合、Transformer、扩散模型

 下面这个表格是论文的名称,以及在网络结构上进行了总结。

CNN+Transformer结构
文章 类型 代码
Image Fusion Transformer VIF 文中提供了代码链接
MFST: Multi-Modal Feature Self-Adaptive Transformer for Infrared and Visible Image Fusion VIF
DNDT: Infrared and Visible Image Fusion Via DenseNet and Dual-Transformer VIF
TransMEF: A Transformer-Based Multi-Exposure Image Fusion Framework using Self-Supervised Multi-Task Learning MEF

文中提供了代码链接

TransFuse: A Unified Transformer-based Image Fusion Framework using Self-supervised Learning

Unified Framework

文中提供了代码链接
TGFuse: An Infrared and Visible Image Fusion Approach Based on Transformer and Generative Adversarial Network VIF
SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer Unified Framework 文中提供了代码链接
CGTF: Convolution-Guided Transformer for Infrared and Visible Image Fusion VIF
Pure Transformer结构(这两篇都是预训练模型做的)
SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images VIF 文中提供了代码链接
PPT Fusion: Pyramid Patch Transformer for a Case Study in Image Fusion Unified Framework
新增
THFuse: An infrared and visible image fusion network using transformer and hybrid feature extractor VIF
IFormerFusion: Cross-Domain Frequency Information Learning for Infrared and Visible Image Fusion Based on the Inception Transformer VIF
Breaking Free from Fusion Rule: A Fully Semantic-driven Infrared and Visible Image Fusion VIF
扩散模型
Dif-Fusion: Towards High Color Fidelity in Infrared and Visible Image Fusion with Diffusion Models VIF,扩散彩色通道特征

        上述论文的实验部分都是比较的卷积方法或者传统方法,并没有比较到使用到Transforme的模型,所以他们之间的是啥情况,那就不清楚了,没刻意去比较过,有兴趣可以去比较比较。That thing is not sure!!!

        思考:怎么把Tranformer合理的引入到CNN结构中进行图像融合以及如何真正地将Transformer用到图像融合融合中(完全使用Transformer去构建图像融合模型) ??? 

        目前,只收集到这些文章。。如有错误,希望大家看到后及时在评论区留言!!!

        另外,如果想更多的关注图像融合领域相关的知识,大家可以关注以下优秀的博主:

1:部分基于深度学习的红外与可见光图像融合模型总结 - 知乎 (zhihu.com)

2:(7条消息) 红外和可见光图像融合论文及代码整理_Timer-419的博客-CSDN博客_图像融合论文

        希望对大家有帮助,欢迎大家补充!!!

2023.3.17新增、扩散模型!!!