一、数据集

ISLSCP II GIMMS 月度 NDVI 数据集:点我

Github 项目:点我

  • 涵盖了 1981.07 ——2002.12 的数据;
  • 该数据集包含三个数据文件,分别以 0.25 、0.5 、1.0 度的经纬度空间分辨率提供;
  • 数据集进行了处理,减少了因校准、视图几何、火山气溶的火山平流层气溶胶矫正,以及使用经验模式分解/重建( EMD )改进 NDVI 以最小化轨道漂移的影响;
  • 数据集空间范围:全局网格
  • 经度范围:-180 W —— 180 E ;
  • 纬度范围:-90 S —— 90 N ;
  • 数据获取地址:点我 ;
  • 文件类型:.asc 文件;
  • 本实例选择了精度为 0.25 度的数据集;
  • 数据中含有负值,-99 表示水体,-88 表示缺失值,-77 表示永久冰值。

Arcgis 的学习建议参考官方文档:点我 。

原始数据展示:

二、数据处理流程

1. 下载文件完整性验证

由于笔者还下载了 MODIS 的数据集,而该数据集是逐条下载的,因此在下载完成后需要判断数据集是否完整。

所以笔者写了一个小程序进行验证,有兴趣的可以看看:

# coding=utf-8
import os# check if the file exists
f = open(r'D:\Documentation\Project\Grassland ecology\data\MODIS NDVI\download.txt')
dir = r'D:\Documentation\Project\Grassland ecology\data\MODIS NDVI\hdf'
path = r'D:\Documentation\Project\Grassland ecology\data\MODIS NDVI\check.txt'
line = f.readline()
save = open(path, mode='w')
count = 0
while line:if os.path.exists(dir + os.sep + line.split('/')[-1].replace('\n', '')) == False: # txt file has line breaks, we should ignore itsave.writelines(line)count+=1print countline = f.readline()print 'ok!'

解释一下,上述代码中读取了一个文本类型的文件,该文件中存储了所有数据的下载地址,例如:

https://e4ftl01.cr.usgs.gov//DP131/MOLT/MOD13A3.061/2021.10.01/MOD13A3.A2021274.h24v06.061.2021306183117.hdf https://e4ftl01.cr.usgs.gov//DP131/MOLT/MOD13A3.061/2021.10.01/MOD13A3.A2021274.h28v04.061.2021306183118.hdf https://e4ftl01.cr.usgs.gov//DP131/MOLT/MOD13A3.061/2021.10.01/MOD13A3.A2021274.h26v07.061.2021306182609.hdf

所以这一步需要做的就是与下载好的文件进行对比,看是否有遗漏,有的话就将未下载的链接存储到一个叫做 check.txt 的文件中,这样我就可以下载它们了。

2. .asc 格式 转 .tif 格式

在后续步骤的处理中,.asc 文件较为不便,因此需要将其转换为栅格类型 TIFF :

可以使用 Arcgis 工具箱中的 Conversion Tools/To Raster/ASCII to Raster 工具转换格式,也可使用代码进行批量处理:

#encoding:utf-8
import os
import arcpydir = 'D:/Documentation/Project/Grassland ecology/Grassland_ecology/data/gimms_ndvi_qd_1981-2002_exp/' # 数据集
files = os.listdir(dir)for f in files:if os.path.splitext(f)[1] == '.asc':# Script arguments...input_raster_file = dir + f # 文件名# output_data_type = "DOUBLE" # 数据类型# Local variables...raster_format = "TIFF" # 文件类型output_workspace = 'D:/Documentation/Project/Grassland ecology/Grassland_ecology/data/conversion/' + os.path.splitext(f)[0] # 输出路径os.mkdir(output_workspace)# file name processoutput_raster = output_workspace + os.sep + os.path.splitext(f)[0] + ".tif" # 输出文件名if os.path.exists(output_raster) == False:# print input_raster_file# Process: Raster To Other Format (multiple)...arcpy.RasterToOtherFormat_conversion(input_raster_file, output_workspace, raster_format)# print output_raster
print "ALL DONE"

转换后的数据展示:

可以发现没什么区别。

3. 植被覆盖度

植被覆盖度的计算通常都使用像元二分法来计算:

假设每个像元(像素)的 NDVI 值由植被和土壤两部分组成:
NDVI=NDVIvCi+NDVIs(1−Ci)NDVI=NDVI_vC_i+NDVI_s(1-C_i) NDVI=NDVIv​Ci​+NDVIs​(1−Ci​)
其中,NDVIvNDVI_vNDVIv​ 表示植被覆盖部分的值,NDVIsNDVI_sNDVIs​ 表示土壤部分的值,CiC_iCi​ 表示植被覆盖度:
Ci=NDVI−NDVIsNDVIv−NDVIsC_i=\frac{NDVI-NDVI_s}{NDVI_v-NDVI_s} Ci​=NDVIv​−NDVIs​NDVI−NDVIs​​
由于植被和土壤部分的 NDVI 值并不能确定,因此通常使用累积概率为 95% 和 5% 来代替,因此公式如下:
Ci=NDVI−NDVI0.05NDVI0.95−NDVI0.05C_i=\frac{NDVI-NDVI_{0.05}}{NDVI_{0.95}-NDVI_{0.05}} Ci​=NDVI0.95​−NDVI0.05​NDVI−NDVI0.05​​
下面进行实操,首先提取 NDVI 的累积概率,笔者最开始使用 ENVI 软件的统计功能进行提取,但是因为数据中含有负值,因此统计的结果不正确,而笔者又不知道该如何处理这种问题,因此最终还是使用 Python 代码处理了。

笔者一开始写代码处理计算累积概率的时候使用的是原始数据类型 .asc ,其实处理 .tif 更加简便,这里给出 .asc 文件类型的处理代码,后面在对数据进行再分类的时候会提供处理 .tif 文件类型的代码,有需要的朋友自行改写吧。

# coding=utf-8import pandas as pd
import numpy as npdef get_confidence(filepath):ASCfile = pd.read_csv(filepath, skiprows=6, engine='python', sep=' ', delimiter=None, index_col=False, header=None, skipinitialspace=True)ndarray = ASCfile.as_matrix().reshape(1, -1)ndarray.sort()ndarray = ndarray[ndarray>=-1] # 取正常的NDVI值q_5 = np.percentile(ndarray, 5)q_95 = np.percentile(ndarray, 95)return q_5, q_95

植被覆盖度具体的计算可以使用 Arcgis 软件中的栅格计算器:Spatial Analyst Tools/Map Algebra/Raster Calculator

由于在计算之前需要处理一下数据中的负值,而且对于超出累积概率范围的值也需要清洗,因此处理上文中给出的计算公式外,还需要增加一些步骤:

  • 如果 NDVI<NDVI0.05NDVI<NDVI_{0.05}NDVI<NDVI0.05​ ,则 NDVI=0NDVI=0NDVI=0 ;
  • 如果 NDVI>NDVI0.95NDVI>NDVI_{0.95}NDVI>NDVI0.95​ ,则 NDVI=1NDVI=1NDVI=1 ;
  • 如果 NDVI0.05≤NDVI≤NDVI0.95NDVI_{0.05}\le NDVI\le NDVI_{0.95}NDVI0.05​≤NDVI≤NDVI0.95​ ,则 NDVI=NDVINDVI=NDVINDVI=NDVI 。

因此使用栅格计算器的时候所需的公式为:(b1 lt ndvi_min)*0 + (b1 gt ndvi_max)*1 + (b1 ge ndvi_min and b1 le ndvi_max)*((b1 + ndvi_min) / (ndvi_max - ndvi_min))

使用栅格计算器的时候,一次只能处理一个文件,因此需要自行提取累积概率并输入计算器,这样会非常麻烦,因此下面给出批量处理的代码:

# coding=utf-8import os
import arcpy
from arcpy.sa import *
from get_confidence import get_confidencearcpy.CheckOutExtension("spatial") # 检查外部扩展
arcpy.gp.overwriteOutput = 1 # 覆盖之前的文件dirs = 'D:/Documentation/Project/Grassland ecology/Grassland_ecology/data/conversion/'
out_dir = 'D:/Documentation/Project/Grassland ecology/Grassland_ecology/data/Vegetation_coverage/'
asc_dir = 'D:/Documentation/Project/Grassland ecology/Grassland_ecology/data/gimms_ndvi_qd_1981-2002_exp/'
files = os.listdir(dirs)for file in files:if os.path.exists(out_dir + file) == False:os.mkdir(out_dir + file)out_path = out_dir + file + os.sepdir = dirs + file + os.separcpy.env.workspace = dirrasters = arcpy.ListRasters(raster_type='TIF')for raster in rasters:inRaster = Raster(raster)Min, Max = get_confidence(asc_dir + file + ".asc")ans = Con(inRaster < Min, 0, Con((inRaster >= Min) & (inRaster <= Max), (inRaster - Min)/(Max - Min), 1))ans.save(out_path + file + ".tif")print file + " is done!"print "OK!"

植被覆盖度图像如下:

可以发现,它的颜色变浅了一些。

4. 截取目标区域

实例以中国为例,因此需要使用国界线从世界区域中截取中国区域,国界线文件需要使用 .shp 等类型,如果没有请自行下载。

对于未定义坐标系的文件,可以使用 Arcgis 软件中的:Data Management Tools/Projections and Transformations/Define Porjection 工具来定义坐标系,通常使用 WGS 1984。

对于不相同的坐标系文件,可以使用 Arcgis 软件中的:Data Management Tools/Projections and Transformations/Project 工具来转换坐标系,通常使用 WGS 1984。

如果上两步没有问题或者不需要进行上两步,就可以进行区域截取了,使用 Arcgis 软件中的: Spatial Analyst Tools/Extraction/Extract by Mask'工具按掩膜提取即可,代码版本如下:

import arcpy
from arcpy import env
from arcpy.sa import *
import osarcpy.CheckOutExtension("Spatial")
in_path = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\Vegetation_coverage"
mask_data = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\national_borders\national_borders.shp"
out_path = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\extract_by_mask"
dirs = os.listdir(in_path)
flag = 0
for dir in dirs:env.workspace = in_path + os.sep + dirfiles = arcpy.ListRasters(raster_type='TIF')for file in files:out = ExtractByMask(file, mask_data)if os.path.exists(out_path + os.sep + file.split('.')[0]) == False:os.mkdir(out_path + os.sep + file.split('.')[0])out.save(out_path + os.sep + file.split('.')[0] + os.sep + file)flag+=1print flag
print "ok!"

该步骤建议放在转换文件类型之后,这样可以降低计算量。

截取中国后的图像:

5. 提取年代数据

由于要分析植被覆盖度的时空变化,因此需要对已有的数据进行划分。

笔者根据论文[1],将数据划分为 1980 年代(1982~1989)、1990 年代(1990~1999)和 2000 年代(2000~2002),由于笔者采用的数据并不是论文中采用的数据集,因此后续计算中会出现一些不合理的地方,本文的主要目的是记录学习这些步骤以及做这个实验的过程,因此不需要过于纠结这些问题。

所谓提取年代数据,实际上就是对某一年代的 NDVI 数据取一下均值,得到一份均值数据,该步骤可以使用 Ascgis 软件中的:Spatial Analyst Tools/Local/Cell Statistics 工具处理,也可以使用代码处理:

import arcpy
from arcpy import env
from arcpy.sa import *
import osin_path = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\extract_by_mask"
out_path = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\years_data"
years_path = os.listdir(in_path)
for years in years_path:arr = []dirs = os.listdir(in_path + os.sep + years)for dir in dirs:env.workspace = in_path + os.sep + years + os.sep + dirfiles = arcpy.ListRasters(raster_type='TIF')for file in files:arr.append(in_path + os.sep + years + os.sep + dir + os.sep + file)arcpy.CheckOutExtension("Spatial")out = CellStatistics(arr, "MEAN")if os.path.exists(out_path + os.sep+ years) == False:os.mkdir(out_path + os.sep+ years)out.save(out_path + os.sep+ years + os.sep + years + '.tif')
print "ok!"

提取年代数据后的图像:

6. 划分等级

根据论文,需要将植被覆盖数据划分为五个等级,分别为:

等级 名称 描述
Ⅰ级 低覆盖度 小于 5% ,中度沙漠化土地、裸岩、居民地、水体、 裸体、低产草地,属劣等覆盖
Ⅱ级 中低覆盖度 5% ~ 15% ,相当于轻度沙漠化土地、中产草地、 低郁闭度林地、零星植被,差覆盖度
Ⅲ级 中覆盖度 15% ~ 30% ,中低产草地、沼泽类草地,中覆盖度
Ⅳ级 中高覆盖度 30% ~ 60% ,中高产草地,中高覆盖度
Ⅴ级 高覆盖度 大于 60% ,高产草地、密灌木地、密林地、属于优 等覆盖,高覆盖度植被

该步骤可以使用 Ascgis 软件中的:Spatital Analyst Tools/Reclass/Reclassify 工具进行划分,代码版本如下:

# coding=utf-8
import numpy as np
import arcpy
from arcpy.sa import *def load_img_to_array(img_file_path):inRas = arcpy.Raster(img_file_path)lowerLeft = arcpy.Point(inRas.extent.XMin, inRas.extent.YMin)ndarray = arcpy.RasterToNumPyArray(inRas)ndarray = ndarray.reshape(1, -1)ndarray.sort()ndarray = ndarray[ndarray>=-1] # 取正常的NDVI值q_5 = np.percentile(ndarray, 5)q_15 = np.percentile(ndarray, 15)q_30 = np.percentile(ndarray, 30)q_60 = np.percentile(ndarray, 60)return [[0, q_5, 0], [q_5, q_15, 1], [q_15, q_30, 2], [q_30, q_60, 3], [q_60, 1, 4]]in_path1 = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\years_data\1980s\1980s.tif"
in_path2 = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\years_data\1990s\1990s.tif"
in_path3 = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\years_data\2000s\2000s.tif"p1 = load_img_to_array(in_path1)
p2 = load_img_to_array(in_path2)
p3 = load_img_to_array(in_path3)out_path1 = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\reclassify\1980s\1980s.tif"
out_path2 = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\reclassify\1990s\1990s.tif"
out_path3 = r"D:\Documentation\Project\Grassland ecology\Grassland_ecology\data\reclassify\2000s\2000s.tif"out1 = Reclassify(in_path1, "Value", RemapRange(p1))
out2 = Reclassify(in_path2, "Value", RemapRange(p2))
out3 = Reclassify(in_path3, "Value", RemapRange(p3))out1.save(out_path1)
out2.save(out_path2)
out3.save(out_path3)

上述代码中的函数 load_img_to_array(img_file_path) 可以修改为累积概率提取的 .tif 文件类型版本。

划分等级后的图像:

7. 计算转移矩阵

要分析植被覆盖的变化,还需要计算转移矩阵。

所谓转移矩阵,实际上就是随时间变化,上一年代的某植被覆盖等级的像元逐渐演化为了其他等级,用来统计这些变化信息的矩阵。

笔者尝试了使用 Arcgis 软件来进行计算,但是该软件提供的工具要求使用向量文件,而且得到的结果是面积演化的转移矩阵,不符合我们的目标。

这里推荐使用 ENVI 软件来计算,首先需要使用 ENVI Classic 软件将 .tif 文件绘制为 ENVI 文件可应用的图像,步骤如下:

  • 打开 ENVI Classic 软件;

  • 导入划分等级后的 .tif 文件;

  • 打开图片;

  • 点击:Tools/Color Mapping/Density Slice

  • 点击 ok

  • 将 Range 范围改为五个类别,分别为:

    • 0 to 0
    • 1 to 1
    • 2 to 2
    • 3 to 3
    • 4 to 4
  • 点击 Apply

  • 点击 File/Output Ranges to Class Image

  • 输入保存路径保存图片。

对三个年代数据文件处理后,就可以使用 ENVI 软件的:Change Detection/Change Detection Statistics 工具计算转移矩阵了,步骤如下:

  • 打开工具;
  • 先选择后一年代的文件,再选择前一年代的文件;
  • 点击 ok
  • 输入文件保存路径,点击 ok
  • 点击:File/Save to Text File,输入文件路径将弹出的表格保存;
  • 打开 Excel ;
  • 打开刚才保存的 .txt 文件,分隔方式为 Tab ,不懂的自行百度 excel 打开 txt 文件;
  • 将表格中的数据进行处理,修改为你想要样子。

转移矩阵展示:

植被覆盖等级 起始 减少
1551 99 0 0 0 1650 99
1616 21 0 0 0 1637 21
84 457 80 0 0 621 164
229 332 73 0 0 634 302
2 78 2137 54 0 2271 134
8 65 2124 74 0 2271 147
0 0 54 4313 175 4542 229
0 0 74 4251 217 4542 291
0 0 0 175 5881 6056 175
0 0 0 217 5839 6056 217
最终 1637 634 2271 4542 6056
1853 418 2271 4542 6056
增加 86 177 134 229 175
237 86 147 291 217

8. 结果分析

面积统计如下表:(总面积为:420892)

年代 属性
1982-1989 面积/km² 45870 17263.8 63133.8 126267.6 168356.8
比例/% 10.89828 4.101717 15 30 40
1990-1999 面积/km² 45508.6 17625.2 63133.8 126267.6 168356.8
比例/% 10.81242 4.187583 15 30 40
2000-2002 面积/km² 51513.4 11620.4 63133.8 126267.6 168356.8
比例/% 12.2391 2.760898 15 30 40
面积变化/km² 1980s-1990s -361.4 361.4 0 0 0
1990s-2000s 6004.8 -6004.8 0 0 0

三、强度分析

强度分析是一种定量分析土地利用/土地覆盖变化,适用于两个或两个以上时间段以及两个或两个以上不同类型的分析方法,包含 3 个层面:时间间隔、类别、转换。

1. 层面一

第 1 个层面分析每个时间间隔的总体变化规模和变化速率的大小,称之为间隔层面,计算每个时间间隔的年变化强度之后与均值线对比其变化速率的快慢。由下面公式 1 计算每个时间段的变化面积百分比;
St=[Yt,Yt+1]期间的变化面积研究区面积[Yt,Yt+1]的持续时间×100%=∑j=1J[(∑i=1Jctij)−ctij]∑j=1J∑i=1JctijYt+1−Yt×100%S_t = \frac{\frac{[Y_t, Y_{t+1}]期间的变化面积}{研究区面积}}{[Y_t,Y_{t+1}]的持续时间}\times100\%=\frac{\frac{\sum_{j=1}^J[(\sum_{i=1}^Jc_{tij})-c_{tij}]}{\sum_{j=1}^J\sum_{i=1}^Jc_{tij}}}{Y_{t+1}-Y_t}\times100\% St​=[Yt​,Yt+1​]的持续时间研究区面积[Yt​,Yt+1​]期间的变化面积​​×100%=Yt+1​−Yt​∑j=1J​∑i=1J​ctij​∑j=1J​[(∑i=1J​ctij​)−ctij​]​​×100%
其中:

  • StS_tSt​ 为时间段 [Yt,Yt+1][Y_t,Y_{t+1}][Yt​,Yt+1​] 的年变化强度;
  • JJJ 为类别数量;
  • 下标 iii 表示某时间段初始时间点的类别;
  • 下标 jjj 表示某时间段终止时间点的类别;
  • 下标 nnn 表示由其他类别转换而来的类别;
  • TTT 为时间段的数量;
  • 下标 ttt 是 [Yt,Yt+1][Y_t,Y_{t+1}][Yt​,Yt+1​] 期间的某一时间点,范围是 [1,T−1][1,T-1][1,T−1] ;
  • YtY_tYt​ 为时间点 ttt 的年份。

公式 2 给出了变化速率均值线,如果 StS_tSt​ 的值在每个时间点 ttt 都相等,则 StS_tSt​ 的值等于 UUU ,这是强度分析的基本逻辑,并适用于类别层面和转换层面的分析:
U=整个研究时段内的面积变化研究区面积整个期间持续时间×100%=∑t=1T−1{∑j=1J[(∑i=1JCtij)−Ctij]}∑j=1J∑i=1JCtijYT−Y1×100%U=\frac{\frac{整个研究时段内的面积变化}{研究区面积}}{整个期间持续时间}\times100\%=\frac{\frac{\sum_{t=1}^{T-1}\left\{\sum_{j=1}^J[(\sum_{i=1}^JC_{tij})-C_{tij}]\right\}}{\sum_{j=1}^J\sum_{i=1}^JC_{tij}}}{Y_T-Y_1}\times100\% U=整个期间持续时间研究区面积整个研究时段内的面积变化​​×100%=YT​−Y1​∑j=1J​∑i=1J​Ctij​∑t=1T−1​{∑j=1J​[(∑i=1J​Ctij​)−Ctij​]}​​×100%
UUU 为时间 Intensity analysis 均值线的值。

下图展示了两个时段的面积变化和面积变化速率,左图 x 轴表示时段,y 轴表示年平均面积变化量,右图 y 轴表示年平均面积变化速率百分比,红色的虚线为均值线,可以看出:中国植被覆盖度在 1980s — 1990s 的变化面积和变化速率均小于 1990s — 2000s。

2. 层面二

分析每个类别在某一时间段增加或减少的程度,并将其与均值线对比可知其变化速率的缓急情况:
Gtj=[Yt,Yt+1]期间内类型j的增加面积[Yt,Yt+1]的持续时间类型j在Yt+1的面积×100%=(∑i=1Jctij)−ctiiYt+1−Yt∑i=1Jctij×100%Lti=[Yt,Yt+1]期间内类型i的减少面积[Yt,Yt+1]的持续时间类型i在Yt的面积×100%=Lti=(∑j=1Jctij)−ctiiYt+1−Yt∑j=1Jctij×100%G_{tj}=\frac{\frac{[Y_t,Y_{t+1}]期间内类型j的增加面积}{[Y_t, Y_{t+1}]的持续时间}}{类型j在Y_{t+1}的面积}\times100\%=\frac{\frac{(\sum_{i=1}^Jc_{tij})-c_{tii}}{Y_{t+1}-Y_t}}{\sum_{i=1}^Jc_{tij}}\times100\% \\ L_{ti}=\frac{\frac{[Y_t,Y_{t+1}]期间内类型i的减少面积}{[Y_t,Y_{t+1}]的持续时间}}{类型i在Y_t的面积}\times100\%=L_{ti}=\frac{\frac{(\sum_{j=1}^Jc_{tij})-c_{tii}}{Y_{t+1-Y_t}}}{\sum_{j=1}^Jc_{tij}}\times100\% Gtj​=类型j在Yt+1​的面积[Yt​,Yt+1​]的持续时间[Yt​,Yt+1​]期间内类型j的增加面积​​×100%=∑i=1J​ctij​Yt+1​−Yt​(∑i=1J​ctij​)−ctii​​​×100%Lti​=类型i在Yt​的面积[Yt​,Yt+1​]的持续时间[Yt​,Yt+1​]期间内类型i的减少面积​​×100%=Lti​=∑j=1J​ctij​Yt+1−Yt​​(∑j=1J​ctij​)−ctii​​​×100%
其中:

  • GtjG_{tj}Gtj​ 为 [Yt,Yt+1][Y_t,Y_{t+1}][Yt​,Yt+1​] 中 jjj 等级的年总增加强度;
  • LtijL_{tij}Ltij​ 为从时间点 YtY_tYt​ 的 iii 等级转换至时间点 Yt+1Y_{t+1}Yt+1​ 的 jjj 等级的像元个数。

下面的图像展示了两个时段的植被覆盖度等级变化规律,左图 x 轴表示植被覆盖等级,y 轴表示年平均变化面积,右图 x 轴表示植被覆盖等级,y 轴表示面积变化速率百分比,红色的虚线表示均值线 。均值线以下表示强度变化平缓,反之表示强度变化活跃。



3. 层面三

分析某一类别转换为另一类别和其他类别转入该类别的程度,并找出在某一特定时间间隔内哪种类别的转换尤为强烈:
Rtin=[Yt,Yt+1]期间内i转至n的面积[Yt,Yt+1]的持续时间类型i在Yt的面积×100%=ctinYt+1−Yt∑j=1Jctij×100%R_{tin}=\frac{\frac{[Y_t,Y_{t+1}]期间内i转至n的面积}{[Y_t,Y_{t+1}]的持续时间}}{类型i在Y_t的面积}\times100\%=\frac{\frac{c_{tin}}{Y_{t+1}-Y_t}}{\sum_{j=1}^Jc_{tij}}\times100\% Rtin​=类型i在Yt​的面积[Yt​,Yt+1​]的持续时间[Yt​,Yt+1​]期间内i转至n的面积​​×100%=∑j=1J​ctij​Yt+1​−Yt​ctin​​​×100%

  • RtinR_{tin}Rtin​ 为 [Yt,Yt+1][Y_t,Y_{t+1}][Yt​,Yt+1​] 中 iii 等级至 n(i≠n)n(i\ne n)n(i​=n) 等级的年转换强度。

Wtn=[Yt,Yt+1]期间内类型n的增加面积[Yt,Yt+1]的持续时间在Yt的非类型n的面积×100%=(∑i=1Jctin)−ctnnYt+1−Yt∑j=1J[(∑i=1Jctij)−ctnj]×100%W_{tn}=\frac{\frac{[Y_t,Y_{t+1}]期间内类型n的增加面积}{[Y_t,Y_{t+1}]的持续时间}}{在Y_t的非类型n的面积}\times100\%=\frac{\frac{(\sum_{i=1}^Jc_{tin})-c_{tnn}}{Y_{t+1}-Y_t}}{\sum_{j=1}^J[(\sum_{i=1}^Jc_{tij})-c_{tnj}]}\times100\% Wtn​=在Yt​的非类型n的面积[Yt​,Yt+1​]的持续时间[Yt​,Yt+1​]期间内类型n的增加面积​​×100%=∑j=1J​[(∑i=1J​ctij​)−ctnj​]Yt+1​−Yt​(∑i=1J​ctin​)−ctnn​​​×100%

  • WtnW_{tn}Wtn​ 为 [Yt,Yt+1][Y_t,Y_{t+1}][Yt​,Yt+1​] 中从时间点 YtY_tYt​ 的非 nnn 等级至 nnn 等级的统一转换强度。

Qtmj=[Yt,Yt+1]期间内m转至j的面积[Yt,Yt+1]的持续时间类型j在Yt+1的面积×100%=ctmjYt+1−Yt∑i=1Jctij×100%Q_{tmj}=\frac{\frac{[Y_t,Y_{t+1}]期间内m转至j的面积}{[Y_t,Y_{t+1}]的持续时间}}{类型j在Y_{t+1}的面积}\times100\%=\frac{\frac{c_{tmj}}{Y_{t+1-Y_t}}}{\sum_{i=1}^Jc_{tij}}\times100\% Qtmj​=类型j在Yt+1​的面积[Yt​,Yt+1​]的持续时间[Yt​,Yt+1​]期间内m转至j的面积​​×100%=∑i=1J​ctij​Yt+1−Yt​​ctmj​​​×100%

  • QtmjQ_{tmj}Qtmj​ 为 [Yt,Yt+1][Y_t,Y_{t+1}][Yt​,Yt+1​] 中 mmm 等级至 (m≠j)(m\ne j)(m​=j) 等级的年转换强度。

Vtm=[Yt,Yt+1]期间m的减少面积[Yt,Yt+1]的持续时间在Yt+1的非类型m的面积×100%=(∑j=1Jctmj)−ctmmYt+1−Yt∑i=1J[(∑j=1Jctij)−ctim]×100%V_{tm}=\frac{\frac{[Y_t,Y_{t+1}]期间m的减少面积}{[Y_t,Y_{t+1}]的持续时间}}{在Y_{t+1}的非类型m的面积}\times100\%=\frac{\frac{(\sum_{j=1}^Jc_{tmj})-c_{tmm}}{Y_{t+1}-Y_t}}{\sum_{i=1}^J[(\sum_{j=1}^Jc_{tij})-c_{tim}]}\times100\% Vtm​=在Yt+1​的非类型m的面积[Yt​,Yt+1​]的持续时间[Yt​,Yt+1​]期间m的减少面积​​×100%=∑i=1J​[(∑j=1J​ctij​)−ctim​]Yt+1​−Yt​(∑j=1J​ctmj​)−ctmm​​​×100%

  • VtmV_{tm}Vtm​ 为 [Yt,Yt+1][Y_t,Y_{t+1}][Yt​,Yt+1​] 中从时间点 Yt+1Y_{t+1}Yt+1​ 的 mmm 等级至所有非 mmm 等级的统一转换强度。

根据强度分析,得到下表的变化趋势:

转出 80s-90s 90s-00s
低覆盖度(1) 中低(2) 中低(2)
中低覆盖度(2) 低(1)、中(3) 低(1)、中(3)
中覆盖度(3) 中低(2)、中高(4) 中低(2)、中高(4)
中高覆盖度(4) 中(3)、高(5) 中(3)、高(5)
高覆盖度(5) 中高(5) 中高(5)

4. 强度分析代码

import numpy as npclass strength_analysis:# initdef __init__(self):self.category_80s = np.array([1650, 621, 2271, 4542, 6056], dtype='double')self.category_90s = np.array([1637, 634, 2271, 4542, 6056], dtype='double')self.category_00s = np.array([1853, 418, 2271, 4542, 6056], dtype='double')self.years_80s_90s = 10self.years_90s_00s = 6self.years_80s_00s = 16self.var_80s_90s = np.array([[1551, 99, 0, 0, 0], [84, 457, 80, 0, 0], [2, 78, 2137, 54, 0], [0, 0, 54, 4313, 175],[0, 0, 0, 175, 5881]], dtype='double')self.var_90s_00s = np.array([[1616, 21, 0, 0, 0], [229, 332, 73, 0, 0], [8, 65, 2124, 74, 0], [0, 0, 74, 4251, 217],[0, 0, 0, 217, 5839]], dtype='double')self.increase_80s_90s = np.array([86, 177, 134, 229, 175], dtype='double')self.increase_90s_00s = np.array([237, 86, 147, 291, 217], dtype='double')self.decrease_80s_90s = np.array([99, 164, 134, 229, 175], dtype='double')self.decrease_90s_00s = np.array([21, 302, 147, 291, 217], dtype='double')# category 1def S_U(self):S_80s_90s = np.sum(np.abs(self.category_90s - self.category_80s)) / sum(self.category_80s) / self.years_80s_90s * 100S_90s_00s = sum(np.abs(self.category_00s - self.category_90s)) / sum(self.category_90s) / self.years_90s_00s * 100U = (sum(np.abs(self.category_90s - self.category_80s)) + sum(np.abs(self.category_00s - self.category_90s))) / sum(self.category_80s) / self.years_80s_00s * 100return S_80s_90s, S_90s_00s, Udef area_S(self):S_80s_90s = np.sum(np.abs(self.category_90s - self.category_80s)) / self.years_80s_90sS_90s_00s = sum(np.abs(self.category_00s - self.category_90s)) / self.years_90s_00sreturn S_80s_90s, S_90s_00s# category 2def GL(self):G_80s_90s = np.empty((5, 1), dtype='double')G_90s_00s = np.empty((5, 1), dtype='double')L_80s_90s = np.empty((5, 1), dtype='double')L_90s_00s = np.empty((5, 1), dtype='double')for i in range(5):G_80s_90s[i] = self.increase_80s_90s[i] / self.years_80s_90s / self.category_90s[i] * 100G_90s_00s[i] = self.increase_90s_00s[i] / self.years_90s_00s / self.category_00s[i] * 100L_80s_90s[i] = self.decrease_80s_90s[i] / self.years_80s_90s / self.category_80s[i] * 100L_90s_00s[i] = self.decrease_90s_00s[i] / self.years_90s_00s / self.category_90s[i] * 100U1 = np.sum(self.increase_80s_90s) / sum(self.category_80s) / self.years_80s_90s * 100U2 = np.sum(self.increase_90s_00s) / sum(self.category_90s) / self.years_90s_00s * 100U3 = np.sum(self.decrease_80s_90s) / sum(self.category_80s) / self.years_80s_90s * 100U4 = np.sum(self.decrease_90s_00s) / sum(self.category_90s) / self.years_90s_00s * 100return G_80s_90s, G_90s_00s, L_80s_90s, L_90s_00s, U1, U2, U3, U4def area_GL(self):G_80s_90s = np.empty((5, 1), dtype='double')G_90s_00s = np.empty((5, 1), dtype='double')L_80s_90s = np.empty((5, 1), dtype='double')L_90s_00s = np.empty((5, 1), dtype='double')for i in range(5):G_80s_90s[i] = self.increase_80s_90s[i] / self.years_80s_90sG_90s_00s[i] = self.increase_90s_00s[i] / self.years_90s_00sL_80s_90s[i] = self.decrease_80s_90s[i] / self.years_80s_90sL_90s_00s[i] = self.decrease_90s_00s[i] / self.years_90s_00sreturn G_80s_90s, G_90s_00s, L_80s_90s, L_90s_00s# category 3def RWQV(self):R_80s_90s = np.empty((5, 5), dtype='double')R_90s_00s = np.empty((5, 5), dtype='double')W_80s_90s = np.empty((5, 1), dtype='double')W_90s_00s = np.empty((5, 1), dtype='double')Q_80s_90s = np.empty((5, 5), dtype='double')Q_90s_00s = np.empty((5, 5), dtype='double')V_80s_90s = np.empty((5, 1), dtype='double')V_90s_00s = np.empty((5, 1), dtype='double')for i in range(5):for j in range(5):if i == j:continueR_80s_90s[i][j] = self.var_80s_90s[i][j] / self.years_80s_90s / self.category_80s[i] * 100R_90s_00s[i][j] = self.var_90s_00s[i][j] / self.years_90s_00s / self.category_90s[i] * 100Q_80s_90s[i][j] = self.var_80s_90s[i][j] / self.years_80s_90s / self.category_90s[j] * 100Q_90s_00s[i][j] = self.var_90s_00s[i][j] / self.years_90s_00s / self.category_00s[j] * 100W_80s_90s[i] = self.increase_80s_90s[i] / self.years_80s_90s / (np.sum(self.category_80s) - self.category_80s[i]) * 100W_90s_00s[i] = self.increase_90s_00s[i] / self.years_90s_00s / (np.sum(self.category_90s) - self.category_90s[i]) * 100V_80s_90s[i] = self.decrease_80s_90s[i] / self.years_80s_90s / (np.sum(self.category_90s) - self.category_90s[i]) * 100V_90s_00s[i] = self.decrease_90s_00s[i] / self.years_90s_00s / (np.sum(self.category_00s) - self.category_00s[i]) * 100return R_80s_90s, R_90s_00s, W_80s_90s, W_90s_00s, Q_80s_90s, Q_90s_00s, V_80s_90s, V_90s_00s

5. 画图代码

# coding=utf-8from strength_analysis import *
import numpy
import matplotlib.pyplot as pltSA = strength_analysis()# plot 1
plt.clf()
S_80s_90s, S_90s_00s = SA.area_S()
plt.subplot(1, 2, 1)
plt.title('change area')
plt.xlabel("years") # 变化面积
plt.ylabel("change area") # 变化面积
plt.xlim(0, 5)
plt.xticks([1, 3], ['80s-90s', '90s-00s'])
plt.bar([1, 3], [S_80s_90s, S_90s_00s], color=['blue', 'green'], width=0.7)
plt.tight_layout()
# plt.show()# plot 2
S_80s_90s, S_90s_00s, U = SA.S_U()
plt.subplot(1, 2, 2)
plt.title('change rate')
plt.xlabel("change rate") # 变化率
plt.ylabel("percent") # 变化面积
plt.xlim(0, 5)
plt.xticks([1, 3], ['80s-90s', '90s-00s'])
plt.bar([1, 3], [S_80s_90s, S_90s_00s], color=['blue', 'green'], width=0.7)
plt.axhline(U, linestyle='--', c='red', label=str(U))
plt.legend(fontsize=8)
plt.tight_layout()
# plt.show()# plot 3
plt.clf()
G_80s_90s, G_90s_00s, L_80s_90s, L_90s_00s = SA.area_GL()
plt.subplot(1, 2, 1)
plt.title('80s-90s increase area')
plt.xlabel("class") # 变化面积
plt.ylabel("area") # 变化面积
plt.xlim(0, 6)
plt.xticks([1, 2, 3, 4, 5], [1, 2, 3, 4, 5])
plt.bar([1, 2, 3, 4, 5], G_80s_90s, color=['blue', 'green'], width=0.5)
plt.tight_layout()
# plt.show()# plot 4
G_80s_90s, G_90s_00s, L_80s_90s, L_90s_00s, U1, U2, U3, U4 = SA.GL()
plt.subplot(1, 2, 2)
plt.title('80s-90s increase rate')
plt.xlabel("class") # 变化率
plt.ylabel("rate") # 变化面积
plt.xlim(0, 6)
plt.xticks([1, 2, 3, 4, 5], [1, 2, 3, 4, 5])
plt.bar([1, 2, 3, 4, 5], G_80s_90s, color=['blue', 'green'], width=0.5)
plt.axhline(U1, linestyle='--', c = 'red', label=str(U1))
plt.legend(fontsize=8)
plt.tight_layout()
plt.show()# plot 5
plt.clf()
G_80s_90s, G_90s_00s, L_80s_90s, L_90s_00s = SA.area_GL()
plt.subplot(1, 2, 1)
plt.title('90s-00s increase area')
plt.xlabel("class") # 变化率
plt.ylabel("area") # 变化面积
plt.xlim(0, 6)
plt.xticks([1, 2, 3, 4, 5], [1, 2, 3, 4, 5])
plt.bar([1, 2, 3, 4, 5], G_90s_00s, color=['blue', 'green'], width=0.5)
plt.tight_layout()
# plt.show()# plot 6
G_80s_90s, G_90s_00s, L_80s_90s, L_90s_00s, U1, U2, U3, U4 = SA.GL()
plt.subplot(1, 2, 2)
plt.title('90s-00s increase rate')
plt.xlabel("class") # 变化率
plt.ylabel("rate") # 变化面积
plt.xlim(0, 6)
plt.xticks([1, 2, 3, 4, 5], [1, 2, 3, 4, 5])
plt.bar([1, 2, 3, 4, 5], G_90s_00s, color=['blue', 'green'], width=0.5)
plt.axhline(U1, linestyle='--', c = 'red', label=str(U2))
plt.legend(fontsize=8)
plt.tight_layout()
plt.show()# plot 7
plt.clf()
G_80s_90s, G_90s_00s, L_80s_90s, L_90s_00s = SA.area_GL()
plt.subplot(1, 2, 1)
plt.title('80s-90s decrease area')
plt.xlabel("class") # 变化率
plt.ylabel("area") # 变化面积
plt.xlim(0, 6)
plt.xticks([1, 2, 3, 4, 5], [1, 2, 3, 4, 5])
plt.bar([1, 2, 3, 4, 5], L_80s_90s, color=['blue', 'green'], width=0.5)
plt.tight_layout()
# plt.show()# plot 8
G_80s_90s, G_90s_00s, L_80s_90s, L_90s_00s, U1, U2, U3, U4 = SA.GL()
plt.subplot(1, 2, 2)
plt.title('80s-90s decrease rate')
plt.xlabel("class") # 变化率
plt.ylabel("rate") # 变化面积
plt.xlim(0, 6)
plt.xticks([1, 2, 3, 4, 5], [1, 2, 3, 4, 5])
plt.bar([1, 2, 3, 4, 5], L_80s_90s, color=['blue', 'green'], width=0.5)
plt.axhline(U2, linestyle='--', c = 'red', label=str(U3))
plt.legend(fontsize=8)
plt.tight_layout()
plt.show()# plot 9
plt.clf()
G_80s_90s, G_90s_00s, L_80s_90s, L_90s_00s = SA.area_GL()
plt.subplot(1, 2, 1)
plt.title('90s-00s decrease area')
plt.xlabel("class") # 变化率
plt.ylabel("area") # 变化面积
plt.xlim(0, 6)
plt.xticks([1, 2, 3, 4, 5], [1, 2, 3, 4, 5])
plt.bar([1, 2, 3, 4, 5], L_90s_00s, color=['blue', 'green'], width=0.5)
plt.tight_layout()
# plt.show()# plot 10
G_80s_90s, G_90s_00s, L_80s_90s, L_90s_00s, U1, U2, U3, U4 = SA.GL()
plt.subplot(1, 2, 2)
plt.title('90s-00s decrease rate')
plt.xlabel("class") # 变化率
plt.ylabel("rate") # 变化面积
plt.xlim(0, 6)
plt.xticks([1, 2, 3, 4, 5], [1, 2, 3, 4, 5])
plt.bar([1, 2, 3, 4, 5], L_90s_00s, color=['blue', 'green'], width=0.5)
plt.axhline(U2, linestyle='--', c = 'red', label=str(U4))
plt.legend(fontsize=8)
plt.tight_layout()
plt.show()R_80s_90s, R_90s_00s, W_80s_90s, W_90s_00s, Q_80s_90s, Q_90s_00s, V_80s_90s, V_90s_00s = SA.RWQV()
for i in range(5):for j in range(5):if i == j:continueprint "R_90s_00s[{}][{}]:{}".format(i, j, R_90s_00s[i][j]) # 4 to 5

如果本项目帮助到了你,不如用微信赞助作者一杯奶茶吧~~~

植被覆盖度时空变化规律分析实例相关推荐

  1. 基于Python根据置信度区间计算植被覆盖度

    "把别人的经验变成自己的,他的本事就大了" 1 简述 大概九天前,我发了篇记录,大致是讲用Python计算Landsat8遥感生态指数RSEI,也就是下篇 "基于Pyth ...

  2. arcgis重心迁移分析_山东省植被覆盖度变化与气候因子相关性分析

    点上方"测绘科学"关注我们 摘 要 植被是陆地生态系统的重要组成部分,能够对陆地生态系统的所有变化做出响应,在能量交换中也起着至关重要的作用,是表现和衡量生态环境状况的主要指标.植 ...

  3. Google Earth Engine(GEE)——月度降水和ndvi植被覆盖度相关性分析(墨西哥为例)

    利用哨兵数据SR数据进行相关性分析,本文先通过降水数据和S2计算的NDVI植被覆盖度,然后分别进行筛选,通过影像合并得到逐月的影像集合合成,然后筛选出降水和ndvi影像,分别计算计算相关性 ee.Im ...

  4. GEE例子分析_植被覆盖度计算

    一.植被覆盖度计算 课程:https://www.bilibili.com/video/BV1zr4y1k7L8?spm_id_from=333.999.0.0 博客:https://blog.csd ...

  5. ENVI软件对Landsat-8数据进行辐射定标、大气校正、提取NDVI、估算植被覆盖度等操作【图说GIS】

    目录 一.前言 二.数据下载 第一步 访问网站 第二步 登录账户 第三步 点击高级检索, 下载数据 三.软件下载及安装 四.辐射定标 第一步 打开数据 第二步 辐射定标 五.计算区域平均高程 第一步 ...

  6. 环评图件制作 (生态影响评价)项目区位置图、工程平面图、调查样方样线点位断面等布设图、土地利用现状图、地表水系图、植被类型图、植被覆盖度图、归一化植被指数图、生态系统类型图、土壤侵蚀图、物种适宜生境图

    一.ArcGIS10.2软件安装和汉化 1.1.ArcGIS软件安装 1.1.1 介绍ArcGIS软件安装过程以及汉化过程 二.遥感概述 2.1.基本概念 2.1.1. 空间滤波 2.1.2. 非监督 ...

  7. 中国的植被覆盖度数据获取方法

    植被覆盖度一般指植被覆盖率,植被覆盖率通常是指森林面积占土地总面积之比,一般用百分数表示.但国家规定在计算森林覆盖率时,森林面积还包括灌木林面积.农田林网树占地面积以及四旁树木的覆盖面积.森林覆盖率, ...

  8. 城市交通枢纽的出租车时空模型分析

    课题来源及研究的目的和意义 受城市发展和资源配置的影响,城市大型交通枢纽地区的出租车的时空模型往往呈现出一定的规律和特定的模式.这也是反应了城市出租车时反应的城市交通的规律和一些人们出行的结构组成.对 ...

  9. arcgis计算植被覆盖度

    在ArcGIS中计算植被覆盖度的方法有很多,其中一个方法是使用基于遥感影像数据进行分类和统计分析的工具.下面是一个步骤: 1. 导入植被分类图像:将植被分类图像导入到ArcGIS软件中作为处理的输入数 ...

  10. 利用IDL计算植被覆盖度(VFC)

    0. 前言   正巧IDL实验课考核的作业是利用4个Function和主Pro过程写一个遥感图像处理的代码,要求是前一个方法的输出是另一个方法的输入.以前一直想着能不能计算NDVI和植被覆盖度(VFC ...

最新文章

  1. %matplotlib inline %config InlineBackend.figure_format = “retina为了将图片嵌入notebook及提高分
  2. pandas datafrae merge操作
  3. 2018年最具就业前景的7大编程语言:Java、Python、JavaScript、C++、C#、PHP、Perl ......
  4. 学妹靠这个学会硬件开发入职华为,今天搞到100个免费名额!
  5. libc.so.6linux查找,Linux中提示:/lib64/libc.so.6: version `GLIBC_2.17' not found 的解决办法...
  6. AirtestIDE 教程 — 5分钟上手自动化测试
  7. horizon服务主要模块_Openstack入门篇(十四)之horizon服务的部署与测试
  8. zookeeper在linux环境安装
  9. 去蓝港在线面试Unity3D的笔试题。难吗?知道答案的在评论里写出来分享
  10. 逻辑回归算法识别Minst手写集
  11. python编程符号大全-python符号大全
  12. LinUX接收蓝牙音频,Win10 v2004已重新支持蓝牙A2DP音频串流接收功能
  13. 图的深度优先遍历和广度优先遍历
  14. SQL SERVER数据库三种数据插入方式
  15. HDC1080介绍与使用
  16. curly怎么读(curly怎么读音发音英语怎么说)
  17. 软考中级一般需要备考多久?过来人告诉你
  18. linux里docker镜像mysql运行sql脚本时出现Failed to open file ‘/home/mydatabase.sql‘, error: 2的解决
  19. 华为杯山东理工大学第二届团体程序设计天梯赛
  20. 小白Java笔记——注释

热门文章

  1. 程序员爱穿格子衫、秃头的刻板印象是如何形成的?
  2. 解决屏幕大小不一导致页面下方出现多余空白的问题
  3. java整除符号是什么意思_java除法及java除法运算的基础知识
  4. Webpack(上)
  5. hdu 5857 Median(模拟)
  6. Python3爬取搜狗微信公众号
  7. 南大计算机技术复试分数线,南大计算机复试分数线
  8. ROS中NodeHandle nh与NodeHandle nh(“~“)区别
  9. java方法的重写和重载_Java方法重载和重写原理区别解析
  10. 网页实现语音对讲_通过基于WebRTC的浏览器实现语音通话的方法及系统的制作方法...