博客资料

图像融合常用数据集整理

基于深度学习的多聚焦图像融合(Multi-Focus Image Fusion)论文及代码整理

文献

1.Multi-focus image fusion with a deep convolutional neural network [CNN(IF 2017)][paper][code]

2.Ensemble of CNN for multi-focus image fusion [ECNN(IF 2019)][paper][code]

3.Multilevel features convolutional neural network for multifocus image fusion [MLFCNN(TCI 2019)] [paper]

4.DRPL: Deep Regression Pair Learning for Multi-Focus Image Fusion [DRPL(TIP 2020)] [paper][code]

5.An α-Matte Boundary Defocus Model-Based Cascaded Network for Multi-Focus Image Fusion [MMF-Net(TIP 2020)] [paper][code]

6.Towards Reducing Severe Defocus Spread Effects for Multi-Focus Image Fusion via an Optimization Based Strategy [MFF-SSIM(TCI 2020)][paper][code]

7.Structural Similarity Loss for Learning to Fuse Multi-Focus Images [MFNet(Sensors 2020)][paper]

8.Global-Feature Encoding U-Net (GEU-Net) for Multi-Focus Image Fusion [GEU-Net(TIP 2021)][paper][code]

9.DTMNet: A Discrete Tchebichef Moments-Based Deep Neural Network for Multi-Focus Image Fusion [DTMNet(ICCV 2021)][paper]

10.SMFuse: Multi-Focus Image Fusion Via Self-Supervised Mask-Optimization [SMFuse(TCI 2021)][paper][code]

11.Depth-Distilled Multi-focus Image Fusion [D2MFIF(TMM 2021)][paper]

12.SESF-Fuse: an unsupervised deep model for multi-focus image fusion [SESF-Fuse(NCAA 2021)][paper][code]

单点定位

笔记

A Deep Learning Localization Method for Measuring Abdominal Muscle Dimensions in Ultrasound Images

  • We propose a novel localization framework that usesFCN8 [14] with a CoordConv layer [16] to detect the points for muscle dimension measurement while leveraging Localization-based Counting Fully Convolutional Network (LCFCN) loss to maximize the performance of the network with point-level supervision;
  • We demonstrate that our novel approach of using LCFCN along with CoordConv yields significant improvement over conventional landmark detection and almost matches the performance of ultrasound technicians.

多模态声源定位(SSL)

Sound source localization based on multi-task learning and image translation network [paper]

ym=s∗hm+nmy_m=s*h_m+n_mym​=s∗hm​+nm​

其中,ym∈RLy_m\in \mathbb R^Lym​∈RL是第mmm个麦克风接收到的信号(M∈{1,2,⋯,M}M\in\{1,2,\cdots ,M\}M∈{1,2,⋯,M}),sss是源信号,nmn_mnm​是麦克风第nnn个噪声信号,它表示房间的混响。y=[y1,y2,⋯,ym]T∈RM×L\mathbf y=[y_1,y_2,\cdots,y_m]^T\in\mathbb R^{M\times L}y=[y1​,y2​,⋯,ym​]T∈RM×L表示从音频长度为LLL的所有传感器接收的信号的集合。

对于每个阵列有KKK个麦克风的NNN个阵列,即M=NKM=NKM=NK,则y\mathbf yy为K×N×LK\times N\times LK×N×L的张量,即研究的y∈RK×N×L\mathbf y\in\mathbb R^{K\times N\times L}y∈RK×N×L

特征提取

快照的数量可以用音频长度LLL和快速傅里叶变换(FFT)和窗口长度FFF表示为S=L/2FS=L/2FS=L/2F(仅考虑频率段的正一半),可得到Y∈CS×F×K×NY\in\mathbb C^{S\times F\times K\times N}Y∈CS×F×K×N作为y\mathbf{y}y的快速傅里叶变换(STFT)的输出,这里yyy是针对单个测量情况计算的。如果数据集中有TTT个独立的测量值,那么Y\mathbf YY的帧数为C=TSC=TSC=TS(Y∈CS×F×K×NY\in\mathbb C^{S\times F\times K\times N}Y∈CS×F×K×N)

DOA特征提取

假设均匀线阵(ULA)和宽带信号再任意角度θ\thetaθ上传统波束形成输出的幅度为

P(θ)=∣wθHYfns∣=∣∑k=1KYfns[k]ej(2πkusin⁡θf0/c)∣P(\theta)=\left|w_\theta^H Y_f^{ns}\right|=\left|\sum^K_{k=1}Y_f^{ns}[k]e^{j(2\pi ku\sin{\theta}f_0/c)}\right|P(θ)=∣∣​wθH​Yfns​∣∣​=∣∣​k=1∑K​Yfns​[k]ej(2πkusinθf0​/c)∣∣​

这里,wθ=[ej(2πkusin⁡θf01/c),ej(2πkusin⁡θf02/c),⋯,ej(2πkusin⁡θf0K/c)]Tw_{\theta}=\left[e^{j(2\pi ku\sin{\theta}f_01/c)},e^{j(2\pi ku\sin{\theta}f_02/c)},\cdots,e^{j(2\pi ku\sin{\theta}f_0K/c)}\right]^Twθ​=[ej(2πkusinθf0​1/c),ej(2πkusinθf0​2/c),⋯,ej(2πkusinθf0​K/c)]T,uuu,f0f_0f0​和ccc代表麦克风间距,中频和声速,P(θ)P(\theta)P(θ)中的每个点表示信号与基于自由空间传播的预期波束形成期响应的相似性;Yfns∈CK×1Y_f^{ns}\in\mathbb C^{K\times 1}Yfns​∈CK×1表示YYY中第nnn个数组,第sss个快照和第fff个频率的数据

范围特征提取

范围特征是基于距离的特征,首先假设只考虑距离引起的相位差,与角度特征提取类似,距离ddd处的常规波束形成输出为

P(d)=∣wdHYkns∣=∣∑l=1FYkns[l]ej(2πlfld/c)∣P(d)=\left|w_d^H Y_k^{ns}\right|=\left|\sum_{l=1}^F Y_k^{ns}[l]e^{j(2\pi lf_ld/c)}\right|P(d)=∣∣​wdH​Ykns​∣∣​=∣∣​l=1∑F​Ykns​[l]ej(2πlfl​d/c)∣∣​

其中,wd=[ej(2πlfld1/c),ej(2πlfld2/c),⋯,ej(2πlfldF/c)]w_d=\left[e^{j(2\pi lf_ld1/c)},e^{j(2\pi lf_ld2/c)},\cdots,e^{j(2\pi lf_ldF/c)}\right]wd​=[ej(2πlfl​d1/c),ej(2πlfl​d2/c),⋯,ej(2πlfl​dF/c)],Ykns∈CF×1Y_k^{ns}\in\mathbb{C}^{F\times 1}Ykns​∈CF×1表示第nnn个阵列中第kkk个麦克风和第sss个快照的数据,flf_lfl​对应的是第lll频段的频率

DOA范围特征提取

对于角度为θ\thetaθ距离为ddd的数组

Pns(θ,d)=∣wθHYnswd∗∣=∣∑k=1K∑l=1FYklej(2πkusin⁡θf0/c)ej(2πlfld/c)∣P_{ns}(\theta,d)=\left|w_\theta^HY^{ns}w_d^*\right|=\left|\sum_{k=1}^K\sum_{l=1}^FY_{kl}e^{j(2\pi ku\sin\theta f_0/c)}e^{j(2\pi lf_ld/c)}\right|Pns​(θ,d)=∣∣​wθH​Ynswd∗​∣∣​=∣∣​k=1∑K​l=1∑F​Ykl​ej(2πkusinθf0​/c)ej(2πlfl​d/c)∣∣​

其中,n∈{1,2,⋯,N}n\in \{1,2,\cdots,N\}n∈{1,2,⋯,N},s∈{1,2,⋯,S}s\in \{1,2,\cdots,S\}s∈{1,2,⋯,S},Yns[k,l]=Ykl⋅Pns(θ,d)Y_{ns}[k,l]=Y_{kl}\cdot P_{ns}(\theta,d)Yns​[k,l]=Ykl​⋅Pns​(θ,d)是常规波束形成器的幅度输出,YklY_{kl}Ykl​表示第kkk个麦克风第lll个频段的STFT输出;(⋅)H(\cdot)^H(⋅)H,(⋅)T(\cdot)^T(⋅)T,(⋅)∗(\cdot)^*(⋅)∗分别表示埃米尔特复共轭转置、转置和复共轭。

定位目标

预测的位置(x′,y′)(x',y')(x′,y′)与真实位置(x,y)(x,y)(x,y)的距离为

d(x′,y′)=(x′−x)2+(y′−y)2d(x',y')=\sqrt{(x'-x)^2+(y'-y)^2}d(x′,y′)=(x′−x)2+(y′−y)2​

它在目标图像中的值

l(x′,y′)=e−d(x′,y′)2/σl(x',y')=e^{-d(x',y')^2/\sigma}l(x′,y′)=e−d(x′,y′)2/σ

其中σ\sigmaσ是控制衰减速率的超参数,在d(x′,y′)=0d(x',y')=0d(x′,y′)=0时,l(x′,y′)=1l(x',y')=1l(x′,y′)=1为其最大值

k-Wave工具箱

示例

声学——声源定位阅读笔记相关推荐

  1. 文献:三维视觉前沿进展 大场景下的视觉定位阅读笔记

    文献:龙霄潇,程新景,朱昊,张朋举,刘浩敏,李俊,郑林涛,胡庆拥,刘浩,曹汛,杨睿刚,吴毅红,章国锋,刘烨斌,徐凯,郭裕兰,陈宝权.三维视觉前沿进展[J].中国图象图形学报,2021,26(06):1 ...

  2. 麦克风阵列技术 三 ( 声源定位 波束形成 去混响 麦克风阵列结构设计 声学结构确认流程)

    麦克风阵列技术 麦克风阵列技术详解 声源定位 延时估计 角度计算 波束形成 波束形成模型 波束形成基本理论 去混响 麦克风阵列结构设计 声学结构确认流程 紧接上一个博客文章,此为第三部分.上一部分见: ...

  3. QCon 2015 阅读笔记 - 团队建设

    QCon 2015阅读笔记 QCon 2015 阅读笔记 - 移动开发最佳实践 QCon 2015 阅读笔记 - 团队建设 中西对话:团队管理的五项理论和实战 - 谢欣.董飞(今日头条,LinkedI ...

  4. 代码分析:NASM源码阅读笔记

    NASM源码阅读笔记 NASM(Netwide Assembler)的使用文档和代码间的注释相当齐全,这给阅读源码 提供了很大的方便.按作者的说法,这是一个模块化的,可重用的x86汇编器, 而且能够被 ...

  5. 波束形成、回声消除、声源定位及端到端等语音信号处理算法

    现今信息技术飞速发展,语音技术源源不断地融入到各个领域,语音信号处理是人机接口的关键技术,已广泛应用于直播.在线通话.智能音箱等产品中. (落地应用) 随着语音产品广泛落地应用,语音行业飞速发展,各大 ...

  6. CI框架源码阅读笔记4 引导文件CodeIgniter.php

    到了这里,终于进入CI框架的核心了.既然是"引导"文件,那么就是对用户的请求.参数等做相应的导向,让用户请求和数据流按照正确的线路各就各位.例如,用户的请求url: http:// ...

  7. Head First HTML与CSS阅读笔记(二)

    上一篇Head First HTML与CSS阅读笔记(一)中总结了<Head First HTML与CSS>前9章的知识点,本篇则会将剩下的10~15章内容进行总结,具体如下所示. div ...

  8. 构建之法阅读笔记(二)

    离上次写阅读笔记很长时间了,罪恶感涌来.. 这次主要写一下我对创新的感受,这部分是在<构建之法>的第16章-IT行业的创新. 最近几年我经常能够听到"创新"这个词,总以 ...

  9. Dynamic Head Unifying Object Detection Heads with Attentions 论文阅读笔记

    Dynamic Head Unifying Object Detection Heads with Attentions论文阅读笔记 这是微软在CVPR2021发表的文章,在coco数据集上取得了目前 ...

最新文章

  1. Codeforces 300E(数学)
  2. Spring和SpringMVC自动扫描注解类的冲突问题
  3. C++——构造函数析构函数
  4. 初步了解中文编程工具易语言
  5. 怎样使用两行代码实现博客园打赏功能
  6. ue4集合类型_UE4粒子系统渲染管线概述
  7. 由浅入深学习Apache httpd原理与配置
  8. maven缺失ojdbc6解决方案 :Missing artifact com.oracle:ojdbc6:jar:11.2.0.1.0问题解决 ojdbc包pom.xml出错
  9. TensorFlow模型保存和提取方法
  10. 文件上传之IIS—put漏洞
  11. Hadoop分布式系统架构详解
  12. servlet制作过滤器
  13. postman接口测试提交实体参数实践
  14. 计算机isas测试,SAS硬盘测试:15,000转对决10,000转
  15. 国赛学习——5种数学规划模型
  16. 亲戚(relation)
  17. python决策树的应用_决策树应用(一)
  18. python获取股票的市盈率_有没有一种方法可以自动获取许多股票的一般信息,比如市盈率、收益率等等?...
  19. html教程幻灯片,html教程全幻灯片.ppt
  20. java 反射 工厂模式_Java反射机制demo(七)—反射机制与工厂模式

热门文章

  1. root 启动mysql_非root用户随开机而启动mysql服务
  2. Dbeaver_ee使用mysql和mongodb
  3. 七大IT业界顶尖认证证书
  4. 结构体嵌套结构体,及其的初始化
  5. 求n+nn+nnn+nnnn+nnnnn+nnnnnn
  6. make[2]: *** [/home/nnnn/calibration/devel/lib/libcalibrationtoolkit.so] Error 1
  7. 框架源码系列九:依赖注入DI、三种Bean配置方式的注册和实例化过程
  8. Python编程--个人信息修改小程序
  9. [Power BI] 认识Power Query和M语言
  10. 数据分析总结四:可视化与数据分析