深度学习遥感图像语义分割&目标检测

代码见github:
WangZhenqing-RS/2021Tianchi_RSgithub.com
图标

  1. 赛题描述
    本赛题基于不同地形地貌的高分辨率遥感影像资料,希望参赛者能够利用遥感影像智能解译技术识别提取土地覆盖和利用类型,实现生态资产盘点、土地利用动态监测、水环境监测与评估、耕地数量与监测等应用。结合现有的地物分类实际需求,参照地理国情监测、“三调”等既有地物分类标准,设计陆域土地覆盖与利用类目体系,包括:林地、草地、耕地、水域、道路、城镇建设用地、农村建设用地,工业用地、构筑物、裸地。
    训练数据(2.83GB)

测试A榜数据(530.17MB)

测试B榜数据(766.87MB)

测试B榜密码需要输入两次:第一次:MZwwrF4R第二次:opr9o9QPH

  1. 解决方案
    我们采用Unet++进行实验。需要的软件版本如下。

库 版本
GDAL 3.1.4
segmentation-models-pytorch 0.1.3
torch 1.7.0+cu110
pytorch-toolbelt 0.4.1
2.1. 数据预处理
2.1.1. 统计各类的像素百分比
我们需要了解一下我们的数据中每个类的像素占比情况,对我们后续处理和分析有一定的帮助,运行程序为"code\count_classes.py"。 我们可以发现,各类别非常不均衡,所以我们需要进行少类别上采样以及选择合适的损失函数。

2.1.2. 分隔训练集和验证集
最初为了更加充分利用数据,采用五折交叉验证方式对模型进行训练。在分隔训练集和验证集时,我们在连续五个数据中取其中四份做训练数据,其中一份做验证数据。我们使用dataProcess.py文件中的split_train_val_old函数进行分隔。实验发现线上分数和线下分数差别很大,推测应该是测试集和训练集不同域,光谱差异较大。

为了模拟不同域,我们使用全部数据作为训练集,全部数据作为验证集,只不过训练集和验证集的增强方式不同。

2.1.3. 少类别上采样
我们对类别像素占比很少的类别进行上采样处理,抵抗不均衡现象。若图像包含类别5、6、7则上采样2份,类别3、8、10因为得分太低,采取放弃策略,类别4几乎每张影像都有,亦采取放弃策略。

upsample_num = 2
if ((5 in label) or(6 in label) or(7 in label)):for up in range(upsample_num):train_label_paths_upsample.append(train_label_path)train_image_paths_upsample.append(train_image_paths[i])

2.1.4. 波段选取
我们使用了比赛提供的R/G/B/Nir波段。我们实验过增加归一化植被指数NDVI作为image的第5通道输入到网络中,但是效果不佳,故舍弃这一策略。因为选取了多波段,所以使用了gdal读取图像。

def imgread(fileName, addNDVI=False):dataset = gdal.Open(fileName)width = dataset.RasterXSizeheight = dataset.RasterYSizedata = dataset.ReadAsArray(0, 0, width, height)# 如果是image的话,因为label是单通道if(len(data.shape) == 3):# 添加归一化植被指数NDVI特征if(addNDVI):nir, r = data[3], data[0]ndvi = (nir - r) / (nir + r + 0.00001) * 1.0# 和其他波段保持统一,归到0-255,后面的totensor会/255统一归一化# 统计了所有训练集ndvi的值,最小值为0,最大值很大但是数目很少,所以我们取了98%处的25ndvi = (ndvi - 0) / (25 - 0) * 255ndvi = np.clip(ndvi, 0, 255)data_add_ndvi = np.zeros((5, 256, 256), np.uint8)data_add_ndvi[0:4] = datadata_add_ndvi[4] = np.uint8(ndvi)data = data_add_ndvi# (C,H,W)->(H,W,C)data = data.swapaxes(1, 0).swapaxes(1, 2)return data

2.1.5. 数据增强
为增强模型泛化性,我们对训练数据增强策略采用了随机水平翻转、垂直翻转、对角翻转以及0.5%百分比线性拉伸。为模拟变域,我们对验证集数据进行了随机0.8%、1%、2%线性拉伸。

线性拉伸

def truncated_linear_stretch(image, truncated_value, max_out = 255, min_out = 0):def gray_process(gray):truncated_down = np.percentile(gray, truncated_value)truncated_up = np.percentile(gray, 100 - truncated_value)gray = (gray - truncated_down) / (truncated_up - truncated_down) * (max_out - min_out) + min_out gray = np.clip(gray, min_out, max_out)gray = np.uint8(gray)return grayimage_stretch = []for i in range(image.shape[2]):# 只拉伸RGBif(i<3):gray = gray_process(image[:,:,i])else:gray = image[:,:,i]image_stretch.append(gray)image_stretch = np.array(image_stretch)image_stretch = image_stretch.swapaxes(1, 0).swapaxes(1, 2)return image_stretch

随机数据增强

image 图像

label 标签

def DataAugmentation(image, label, mode):if(mode == "train"):hor = random.choice([True, False])if(hor):#  图像水平翻转image = np.flip(image, axis = 1)label = np.flip(label, axis = 1)ver = random.choice([True, False])if(ver):#  图像垂直翻转image = np.flip(image, axis = 0)label = np.flip(label, axis = 0)stretch = random.choice([True, False])if(stretch):image = truncated_linear_stretch(image, 0.5)if(mode == "val"):stretch = random.choice([0.8, 1, 2])# if(stretch == 'yes'):# 0.5%线性拉伸image = truncated_linear_stretch(image, stretch)return image, label

2.2. 训练
2.2.1. 优化器
我们选择Adamw优化器,初始学习率lr=1e-4,权重衰减weight_decay=1e-3。

optimizer = torch.optim.AdamW(model.parameters(),lr=1e-4, weight_decay=1e-3)

2.2.2. 学习率调整
在训练时梯度下降算法可能陷入局部最小值,此时可以通过突然提高学习率,来“跳出”局部最小值并找到通向全局最小值的路径。所以我们采用余弦退火策略调整学习率。T_0=2,T_mult=2,eta_min=1e-5。

余弦退火调整学习率

scheduler = torch.optim.lr_scheduler.CosineAnnealingWarmRestarts(optimizer, T_0=2, # T_0就是初始restart的epoch数目T_mult=2, # T_mult就是重启之后因子,即每个restart后,T_0 = T_0 * T_multeta_min=1e-5 # 最低学习率)

2.2.3. 损失函数
软交叉熵函数是对标签值进行标签平滑之后再与预测值做交叉熵计算,可以在一定程度上提高泛化性。diceloss在一定程度上可以缓解类别不平衡,但是训练容易不稳定。我们采用软交叉熵函数和diceloss的联合函数作为实验的损失函数。

损失函数采用SoftCrossEntropyLoss+DiceLoss

diceloss在一定程度上可以缓解类别不平衡,但是训练容易不稳定

DiceLoss_fn=DiceLoss(mode='multiclass')

软交叉熵,即使用了标签平滑的交叉熵,会增加泛化性

SoftCrossEntropy_fn=SoftCrossEntropyLoss(smooth_factor=0.1)
loss_fn = L.JointLoss(first=DiceLoss_fn, second=SoftCrossEntropy_fn,first_weight=0.5, second_weight=0.5).cuda()

我们测试了用LovaszLoss进行fine tune,但是最终结果变差了,故放弃。

2.2.4. SWA随机权重平均
我们测试了SWA随机权重平均策略来增强模型泛化性,pytorch官方的SWA学习率调整策略会导致模型精度不升反降,改为余弦退火策略,会使精度略微上升。

2.2.5. attention模块scSE
scSE是综合了通道维度和空间维度的注意力模块,可以增强有意义的特征,抑制无用特征,从而导致精度提升。

2.3. 预测
2.3.1. TTA测试增强
测试时对原图像、水平翻转图像、垂直翻转图像以及百分比截断增强图像的预测结果进行平均,得到TTA结果。

2.3.2. 模型融合
我们训练了不同backbone的unet++,对预测结果取平均,得到最终结果。

2.3.3. 后处理
我们试验了孔洞填充和小物体剔除,结果没有提升,故放弃。 我们NDVI修正结果,结果没有提升,故放弃。

  1. 参考
    阿水233

引自https://zhuanlan.zhihu.com/p/354193558

深度学习遥感图像语义分割目标检测相关推荐

  1. unet图片数据增强_numpy实现深度学习遥感图像语义分割数据增强(支持多波段)

    前言 数据增强是指对训练样本数据进行某种变换操作,从而生成新数据的过程.数据增强的根本目的是得到充足的样本数据量,避免模型训练过程中产生过拟合现象. 正文 对于遥感影像来说,由于成像过程传感器对同一地 ...

  2. 汇总 | 深度学习中图像语义分割基准数据集详解

    点击上方"小白学视觉",选择加"星标"或"置顶" 重磅干货,第一时间送达 汇总图像语义分割那些质量最好的数据集与常用benchmark数据集 ...

  3. 基于深度学习的图像语义分割技术概述之背景与深度网络架构

    本文为论文阅读笔记,不当之处,敬请指正.  A Review on Deep Learning Techniques Applied to Semantic Segmentation: 原文链接 摘要 ...

  4. 基于深度学习的图像语义分割技术概述之4常用方法

    本文为论文阅读笔记,不当之处,敬请指正. A Review on Deep Learning Techniques Applied to Semantic Segmentation:原文链接 4 深度 ...

  5. 【论文阅读】SCAttNet:具有空间和通道注意机制的高分辨率遥感图像语义分割网络

    [论文阅读]SCAttNet:具有空间和通道注意机制的高分辨率遥感图像语义分割网络 文章目录 [论文阅读]SCAttNet:具有空间和通道注意机制的高分辨率遥感图像语义分割网络 一.总体介绍 二.概述 ...

  6. 学习笔记-基于全局和局部对比自监督学习的高分辨率遥感图像语义分割-day2

    高分辨率遥感图像语义分割-day2 摘要 一.引言 二.方法 2.1 对比学习 2.2 全局风格与局部匹配对比学习网络(GLCNet) 2.2.1 全局风格对比学习模块: 2.2.2局部匹配对比学习: ...

  7. 学习笔记-基于全局和局部对比自监督学习的高分辨率遥感图像语义分割-day1

    基于全局和局部对比自监督学习的高分辨率遥感图像语义分割-day1 摘要 一. 引言 摘要 最近,监督深度学习在遥感图像(RSI)语义分割中取得了巨大成功. 然而,监督学习进行语义分割需要大量的标记样本 ...

  8. 遥感图像语义分割各公开数据集

    遥感图像语义分割数据集 1. Gaofen Image Dataset(GID) 2. ISPRS Test Project on Urban Classification and 3D Buildi ...

  9. 【论文阅读】Swin Transformer Embedding UNet用于遥感图像语义分割

    [论文阅读]Swin Transformer Embedding UNet用于遥感图像语义分割 文章目录 [论文阅读]Swin Transformer Embedding UNet用于遥感图像语义分割 ...

最新文章

  1. matplotlib markers的类型
  2. 设计模式----Adapter(适配器)
  3. Head First设计模式读书笔记四 简单工厂 工厂模式 抽象工厂模式
  4. 用OpenSSL写一个简单的Server/Client程序:证书与私钥
  5. 你的计算机usb管理策略,您的计算机已经实施了USB存储设备管理策略,系统发现你使用了USB存储设备,该设备已被阻止,如有疑问请与...
  6. [论文阅读] Tokens-to-Token ViT: Training Vision Transformers from Scratch on ImageNet
  7. jquery获取php生成的元素,jquery怎么生成元素
  8. LSTM和GRU的解析从未如此通俗易懂(动图)
  9. Android端记录跑步计步运动轨迹数据的App
  10. SMT阻容件封装尺寸
  11. Summary of defect detection algorithms based on deep learning
  12. python fabs和abs_python – abs()vs fabs()速度差异和fabs()
  13. 北京旅游管理PPT计算机二级,计算机二级PPT真题:制作北京景点介绍PPT
  14. graph sage 翻译
  15. 2022.2.14-2.20 AI行业周刊(第85期):失业
  16. 水电站生态下泄流量监测系统解决方案
  17. 算法设计与分析复习笔记(上)
  18. 从10个角度来检测自己是不是一个合格的前端工程师
  19. 什么是裸纤、专线、SDH、MSTP、MSTP+、OTN、PTN-Vecloud微云
  20. zip的作用_geogebra进阶系列4:映射指令的神奇作用(巧妙提取多边形列表中的顶点)...

热门文章

  1. Webug靶场搭建详解
  2. 搭建webug漏洞靶场
  3. Windows10蓝屏解决方案
  4. ArcGIS实验教程——实验四十四:ArcGIS地图浮雕效果制作完整案例教程
  5. Flutter桌面小工具 -- 灵动岛【Windows+Android版本】
  6. 从FFmpeg源码去解决IJKPlayer直播花屏问题
  7. 【单调队列】恐怖的奴隶主
  8. C# 主窗体Load事件、Shown事件、Activated事件 区别
  9. 小程序逐渐打通所有应用场景,PC端也能自如运行
  10. Shell 99乘法表