比赛链接:飞桨学习赛:遥感影像地块分割

赛题介绍

本赛题由 2020 CCF BDCI 遥感影像地块分割 初赛赛题改编而来。遥感影像地块分割, 旨在对遥感影像进行像素级内容解析,对遥感影像中感兴趣的类别进行提取和分类,在城乡规划、防汛救灾等领域具有很高的实用价值,在工业界也受到了广泛关注。现有的遥感影像地块分割数据处理方法局限于特定的场景和特定的数据来源,且精度无法满足需求。因此在实际应用中,仍然大量依赖于人工处理,需要消耗大量的人力、物力、财力。本赛题旨在衡量遥感影像地块分割模型在多个类别(如建筑、道路、林地等)上的效果,利用人工智能技术,对多来源、多场景的异构遥感影像数据进行充分挖掘,打造高效、实用的算法,提高遥感影像的分析提取能力。 赛题任务 本赛题旨在对遥感影像进行像素级内容解析,并对遥感影像中感兴趣的类别进行提取和分类,以衡量遥感影像地块分割模型在多个类别(如建筑、道路、林地等)上的效果。

数据说明

本赛题提供了多个地区已脱敏的遥感影像数据,各参赛选手可以基于这些数据构建自己的地块分割模型。

在这里插入图片描述

其中有效的标签被定义为0,1,2,3。255像素值区域为未标记区域。

比赛难点

本比赛实质上还是一个语义分割的任务,只是相对于在遥感影像上的迁移。

  • 个人认为本次比赛的难点在于类与类之间的分割界面不容易区分,对于模型细粒度的分割提出了要求。

  • 而且对于后处理部分来说(分割任务涨点比较多的办法)由于类与类之间界限比较模糊,加上类别形状的不规则,难以找到有效的后处理办法涨分。

本项目亮点

  • 整体基于PaddleSeg套件进行完成,易于上手改进,学习。

  • 有效的数据增强方法

  • 构建类别3难与训练的有效重采样办法,一定程度上解决类别3难以学习的问题。

  • 构建基于SegFormer改进的Decoder,一定程度上解决模型细粒度不够的问题。

PaddleSeg套件开发

本项目使用的模型及数据集处理方法,均为在PaddleSeg原有的基础上进行改进,主要的改进部分有数据集加载处理及模型部分结构更改部分。

  • 对于数据集的处理,主要从paddleseg/datasets/dataset.py更改

  • 对于模型的选择及更改,则主要从paddleseg/models/segformer.py更改

数据增强部分

本项目从已有开源项目,和自己的消融实验,主要确立使用数据增强方法如下:

编号数据增强方法得分:MIOU
ARandomHorizontalFlip+RandomVerticalFlip+RandomPaddingCrop56.48
BA+RandomBlur59.04
CB+ResizeStepScalin(0.75:1.25:0.25)62.91
DB+ResizeStepScalin(0.75:1.25:0.25)63.41
ED+RandomDistort64.35
FF+RandomRotation64.72

上述方法都基于未更改模型和数据集处理的得分,且都使用了TTA的预测方法

数据集处理部分

这里的数据集处理,主要是针对预测结果进行分析,并且获得。

从几次训练结果分析,可以知道模型对于类别3的学习,存在一定的困难,但其实如果从面积的角度去分析的话,三个类别的分布是相当的,但鉴于此,我选择了在训练过程中,对类别3单独进行重采样的处理方法

在这里插入图片描述

具体的代码在myconfig里的mydataset.py文件里。大致的思路就是去构建含有3类别的数据,在训练中以一定的概率对这些数据进行采样。相关代码如下,其实也很简单,就是一定概率下,这次的采样数据从含有类别3的数据里找。

            if np.random.random()<self.sample_prob:
                idx = idx%len(self.sample_list)
                image_path, label_path = self.sample_list[idx]
            im, label = self.transforms(im=image_path, label=label_path)
            if self.edge:
                edge_mask = F.mask_to_binary_edge(
                    label, radius=2, num_classes=self.num_classes)
                return im, label, edge_mask
            else:
                return im, label

这里的采样概率,采用的是以10%的概率对每次采样时,从含类别3中的数据中进行采样,当然这里也可以以递增的方法进行采样,但要改的代码比较多且最后都结果并没有以稳定10%概率采样效果好。

SegFormer模型改进

SegFormer是一款基于Transformer构建的具有简单结构的语义分割网络。其基础网络结构如下图所示。

在这里插入图片描述

这里重点关注模型的Decodr部分。原基础模型的Decoder部分,简单的说就是一个MLP来将不同特种层输出的特征进行融合,然后经过一个MLP再进行上采样。

这里给出两个改进的思路:

  1. 对MLP特征融合进行改进

具体可以参考像FPN和PAN结构的金字塔特征融合,来对特征进行充分挖掘。

  1. 对上采样部分进行改进

在原基础SegFormer结构里,上采样部分,用的是最简单的双线性插值的方法。在本项目中,针对上采样方法进行改进,旨在增强模型的细节还原能力。具体来说,即将上采样的部分更换成具有学习能力的转置卷积,来提升模型对细节的还原。

在这里插入图片描述

具体代码详见myconfig/segformer.py文件。

经过上述两部分操作,得分概览如下。

编号方法得分:MIOU
GF+数据集重采样66.04
HG+SegFormer模型改进66.18

其他细节

本项目还存在以下一些细节部分

  • 训练时采用混合Loss:分别为0.8:CrossEntropyLoss和0.2:LovaszSoftmaxLoss

  • 预测时采用了TTA方法,分别有垂直翻转和0.75,1.0和1.25倍尺寸的多尺度预测。

下面则是本项目的训练过程

代码下载

这里提供了我自己加载在AI studio上的代码

# !git clone https://github.com/lzzzzzm/AI-Studio-LrCompetition-Segmentation-of-sensing-imageblock
!unzip -q data/data162694/PaddleSeg-SenseingBlock.zip -d ./

数据集处理

!unzip -q data/data80164/train_and_label.zip -d ~/data/
!unzip -q data/data80164/img_test.zip -d ~/data/
import os
import numpy as np

datas = []
image_base = 'data/img_train'   # 训练集原图路径
annos_base = 'data/lab_train'   # 训练集标签路径

# 读取原图文件名
ids_ = [v.split('.')[0] for v in os.listdir(image_base)]

# 将训练集的图像集和标签路径写入datas中
for id_ in ids_:
    img_pt0 = os.path.join(image_base, '{}.jpg'.format(id_))
    img_pt1 = os.path.join(annos_base, '{}.png'.format(id_))
    datas.append((img_pt0.replace('/home/aistudio', ''), img_pt1.replace('/home/aistudio', '')))
    if os.path.exists(img_pt0) and os.path.exists(img_pt1):
        pass
    else:
        raise "path invalid!"

# 打印datas的长度和具体存储例子
print('total:', len(datas))
print(datas[0][0])
print(datas[0][1])
print(datas[10][:])
total: 66652
data/img_train/T016293.jpg
data/lab_train/T016293.png
('data/img_train/T032581.jpg', 'data/lab_train/T032581.png')
import numpy as np

# 四类标签,这里用处不大,比赛评测是以0、1、2、3类来对比评测的
labels = ['建筑', '耕地', '林地',  '其他']

# 将labels写入标签文件
with open('labels.txt', 'w') as f:
    for v in labels:
        f.write(v+'\n')

# 随机打乱datas
np.random.seed(5)
np.random.shuffle(datas)

# 验证集与训练集的划分,0.05表示5%为训练集,95%为训练集
split_num = int(0.05*len(datas))

# 划分训练集和验证集
train_data = datas[:-split_num]
valid_data = datas[-split_num:]

# 写入训练集list
with open('train_list.txt', 'w') as f:
    for img, lbl in train_data:
        f.write(img + ' ' + lbl + '\n')

# 写入验证集list
with open('valid_list.txt', 'w') as f:
    for img, lbl in valid_data:
        f.write(img + ' ' + lbl + '\n')

# 打印训练集和测试集大小
print('train:', len(train_data))
print('valid:', len(valid_data))
train: 63320
valid: 3332
import cv2 as cv
import tqdm

# 写入包含类别3的采样样本
sample_list = []
with open('train_list.txt', 'r') as f:
    lines = f.readlines()
    for line in tqdm.tqdm(lines):
        image_path, label_path = line.split(' ')
        label_path = label_path[:-1]
        label = cv.imread(label_path, cv.IMREAD_GRAYSCALE)
        if label is not None:
            if (label==3).any() == True:
                sample_list.append(line)
f.close()

with open('sample.txt', 'w') as f:
    for line in sample_list:
        f.writelines(line)
f.close()
100%|██████████| 63320/63320 [00:13<00:00, 4559.30it/s]

模型训练

!python AI-Studio-LrCompetition-Segmentation-of-sensing-imageblock/train.py \
    --config AI-Studio-LrCompetition-Segmentation-of-sensing-imageblock/myconfig/segformer-b2-rs.yml \
    --use_vdl \
    --do_eval \
    --num_workers 4 \
    --save_interval 10000 \
    --save_dir segformer-b2-rs \
    --log_iters 2000 

推理预测和生成比赛文件

!python AI-Studio-LrCompetition-Segmentation-of-sensing-imageblock/predict.py \
       --config AI-Studio-LrCompetition-Segmentation-of-sensing-imageblock/myconfig/segformer-b2-rs.yml \
       --model_path segformer-b2-rs/model.pdparams \
       --aug_pred \
       --scales 0.75 1.0 1.25 \
       --image_path data/img_testA \
       --custom_color 0 0 0 1 1 1 2 2 2 3 3 3 \
       --save_dir result/SegFormer-B2/
import os
import tqdm
import cv2

img_path = "/home/aistudio/result/SegFormer-B2/pseudo_color_prediction"
rst_path =  "/home/aistudio/result/SegFormer-B2/result"
if not os.path.exists(rst_path):
    os.makedirs(rst_path)
file_list = os.listdir(img_path)
img_list = [os.path.join(img_path, name) for name in file_list]
for i,img_file in tqdm.tqdm(enumerate(img_list)):
    img = cv2.imread(img_file,cv2.IMREAD_GRAYSCALE)
    cv2.imwrite(os.path.join(rst_path,file_list[i]),img)
# 由预测结果生成提交文件
`


```python
# 由预测结果生成提交文件
!zip -r result.zip result/SegFormer-B2/result

总结

对于这个分数,其实还要很多可以改进的地方。看其他开源的方案,多数都用了OCR+HRNet的结构,但本人在使用的时候,发现整体训练时间比较长,才能达到较好的效果。

而且本人对于SegFormer结构比较熟悉,所以就采用了SegFormer的模型,并对其进行了简单的改进,个人认为,SegFormer的上限应该还能更高。

另外,对于数据集部分,原始的数据集的像素其实分辨率不高,后续如果有时间,想试试利用超分辨率技术,处理图片后,能否在分数上有所提升。

如果有问题,欢迎讨论


转载自:https://aistudio.baidu.com/aistudio/projectdetail/4400940?channelType=0&channel=0

Logo

学大模型,用大模型上飞桨星河社区!每天8点V100G算力免费领!免费领取ERNIE 4.0 100w Token >>>

更多推荐