版权声明:本文为CSDN博主「Asia-Lee」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/asialee_bird/article/details/109463084

目录

一、图像基础

二、图像基本操作

1、图像数据读取与写入

2、视频数据读取

3、图像颜色通道提取与合并

4、图像边界填充

5、图像融合及类型转换

三、图像的几何变换

1、图像缩放

2、图像旋转

3、图像翻转

4、图像平移

5、图像仿射变换

6、图像透视变换

四、图像阈值化与平滑处理

1、图像阈值化处理

2、图像平滑处理

五、图像形态学操作

1、腐蚀操作

2、膨胀操作

3、开运算

4、闭运算

5、梯度运算

6、顶帽运算

7、黑帽运算


一、图像基础

图像处理:对输入的图像做某种变换,输出仍然是图像,基本不涉及或者很少涉及图像内容的分析。比较典型的有图像变换,图像增强,图像去噪,图像压缩,图像恢复,二值图像处理等等。基于阈值的图像分割也属于图像处理的范畴。一般处理的是单幅图像。

图像分析:对图像的内容进行分析,提取有意义的特征,以便于后续的处理。处理的仍然是单幅图像。

计算机视觉:对图像分析得到的特征进行分析,提取场景的语义表示,让计算机具有人眼和人脑的能力。这时处理的是多幅图像或者序列图像,当然也包括部分单幅图像。

图像都是由像素构成的,即图像中的小方格,这些小方格都有一个明确的位置和被分配的色彩数值,这些小方格的颜色和位置就决定该图像所呈现出来的样子。像素是图像中的最小单位,每一个点阵图像包含了一定量的像素,这些像素决定图像在屏幕上所呈现的大小。

图像通常包括二值图像、灰度图像和彩色图像,具体如下:

  • 二值图像:二值图像中任何一个点非黑即白,要么为白色(像素为255),要么为黑色(像素为0)。将灰度图像转换为二值图像的过程,常通过依次遍历判断实现,如果像素>=127则设置为255,否则设置为0。
  • 灰度图像:灰度图像除了黑和白,还有灰色,它把灰度划分为256个不同的颜色,图像看着也更为清晰。将彩色图像转换为灰度图是图像处理的最基本预处理操作。
  • 彩色图像:彩色图像是RGB图像,RGB表示红、绿、蓝三原色,计算机里所有颜色都是三原色不同比例组成的,即三色通道。

二、图像基本操作

1、图像数据读取与写入

  1. import cv2 # opencv读取的格式是BGR
  2. import numpy as np
  3. #图像显示
  4. def cv_show(name,img):
  5. cv2.imshow(name,img) # 图像的显示,也可以创建多个窗口
  6. cv2.waitKey(0) # 等待时间,毫秒级,0表示任意键终止
  7. cv2.destroyAllWindows() #删除所有窗口
  8. img=cv2.imread('data/cat.jpg',cv2.IMREAD_COLOR) # 读取彩色图像
  9. cat_new=img[0:100,0:200] #截取部分图像数据
  10. cv_show('cat_new',cat_new) #显示截取后的图像
  11. cv2.imwrite('data/cat_new.png',img) #图像的保存
  • img = cv2.imread(文件名,[参数]):参数cv2.IMREAD_UNCHANGED 表示图像不可变,cv2.IMREAD_GRAYSCALE 表示灰度图像, cv2.IMREAD_COLOR 表示读入彩色图像, cv2.COLOR_BGR2RGB 表示图像通道BGR转成RGB;
  • cv2.waitKey(delay):键盘绑定函数,共一个参数,表示等待毫秒数,将等待特定的几毫秒,看键盘是否有输入,返回值为ASCII值。如果其参数为0,则表示无限期的等待键盘输入;参数>0表示等待delay毫秒;参数<0表示等待键盘单击。
  • ROI(Region of Interest)表示感兴趣区域。它是指从被处理图像以方框、圆形、椭圆、不规则多边形等方式勾勒出需要处理的区域。可以通过各种算子(Operator)和函数求得感兴趣ROI区域,并进行图像的下一步处理,被广泛应用于热点地图、人脸识别、图像分割等领域。比如可以通过像素矩阵直接获取ROI区域,如img[200:400, 200:400]。

2、视频数据读取

  1. vc = cv2.VideoCapture('data/test.mp4')
  2. # 检查是否打开正确
  3. if vc.isOpened():
  4. oepn, frame = vc.read()
  5. else:
  6. open = False
  7. while open:
  8. ret, frame = vc.read()
  9. if frame is None:
  10. break
  11. if ret == True:
  12. gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
  13. cv2.imshow('result', gray)
  14. if cv2.waitKey(100) & 0xFF == 27:
  15. break
  16. vc.release()
  17. cv2.destroyAllWindows()
  • cv2.VideoCapture可以捕获摄像头,用数字来控制不同的设备,例如0,1。如果是视频文件,直接指定好路径即可。

3、图像颜色通道提取与合并

  1. def cv_show(name,img):
  2. cv2.imshow(name,img)
  3. cv2.waitKey(0)
  4. cv2.destroyAllWindows()
  5. img=cv2.imread('data/cat.jpg',cv2.IMREAD_COLOR) # 读取彩色图像
  6. b,g,r=cv2.split(img) # 拆分颜色通道
  7. print(r.shape) # (414, 500)
  8. img=cv2.merge((b,g,r)) # 合并颜色通道
  9. print(img.shape) #(414, 500, 3)
  10. # 只保留R
  11. r_img = img.copy()
  12. r_img[:,:,0] = 0
  13. r_img[:,:,1] = 0
  14. cv_show('R',cur_img)

结果为:

注意:OpenCV读取的彩色图像由B、G、R三原色组成,也可以通过下面代码获取不同的通道,b = img[:, :, 0],g = img[:, :, 1],r = img[:, :, 2];opencv和matplotlib读取RGB通道的顺序是不一样的,opencv的顺序是B-G-R,而matplotlib的顺序是R-G-B,下面使用matplotlib读取并显示图片

  1. import cv2 # opencv读取的格式是BGR
  2. import matplotlib.pyplot as plt
  3. import numpy as np
  4. img=cv2.imread('data/cat.jpg',cv2.IMREAD_COLOR) # 读取彩色图像
  5. b,g,r=cv2.split(img) # 拆分颜色通道
  6. img=cv2.merge((b,g,r)) # 合并颜色通道
  7. # 只保留B
  8. b_img = img.copy()
  9. b_img[:,:,0] = 0
  10. b_img[:,:,1] = 0
  11. plt.subplot(131)
  12. plt.imshow(b_img)
  13. plt.title('Blue')
  14. # 只保留G
  15. g_img = img.copy()
  16. g_img[:,:,0] = 0
  17. g_img[:,:,2] = 0
  18. plt.subplot(132)
  19. plt.imshow(g_img)
  20. plt.title('Green')
  21. # 只保留B
  22. r_img = img.copy()
  23. r_img[:,:,1] = 0
  24. r_img[:,:,2] = 0
  25. plt.subplot(133)
  26. plt.imshow(r_img)
  27. plt.title('Red')

结果为:

4、图像边界填充

  1. import cv2 # opencv读取的格式是BGR
  2. import matplotlib.pyplot as plt
  3. import numpy as np
  4. top_size,bottom_size,left_size,right_size = (50,50,50,50)
  5. replicate = cv2.copyMakeBorder(img, top_size, bottom_size, left_size, right_size, borderType=cv2.BORDER_REPLICATE)
  6. reflect = cv2.copyMakeBorder(img, top_size, bottom_size, left_size, right_size,cv2.BORDER_REFLECT)
  7. reflect101 = cv2.copyMakeBorder(img, top_size, bottom_size, left_size, right_size, cv2.BORDER_REFLECT_101)
  8. wrap = cv2.copyMakeBorder(img, top_size, bottom_size, left_size, right_size, cv2.BORDER_WRAP)
  9. constant = cv2.copyMakeBorder(img, top_size, bottom_size, left_size, right_size,cv2.BORDER_CONSTANT, value=0)
  10. plt.subplot(231), plt.imshow(img, 'gray'), plt.title('ORIGINAL')
  11. plt.subplot(232), plt.imshow(replicate, 'gray'), plt.title('REPLICATE')
  12. plt.subplot(233), plt.imshow(reflect, 'gray'), plt.title('REFLECT')
  13. plt.subplot(234), plt.imshow(reflect101, 'gray'), plt.title('REFLECT_101')
  14. plt.subplot(235), plt.imshow(wrap, 'gray'), plt.title('WRAP')
  15. plt.subplot(236), plt.imshow(constant, 'gray'), plt.title('CONSTANT')
  16. plt.show()

结果为:

  • cv.copyMakeBorder(img,top, bottom, left, right ,borderType):img:需要填充的图像;top:图像上边界需要填充的像素点;bottom:图像下边界需要填充的像素点;left:图像左边界需要填充的像素点;right:图像右边界需要填充的像素点;borderType:图像填充的方法。填充方法主要包括:BORDER_REPLICATE:复制法,也就是复制最边缘像素,BORDER_REFLECT:反射法,对感兴趣的图像中的像素在两边进行复制例如:fedcba|abcdefgh|hgfedcb,BORDER_REFLECT_101:反射法,也就是以最边缘像素为轴,对称,gfedcb|abcdefgh|gfedcba,BORDER_WRAP:外包装法abcdefgh|abcdefgh|abcdefg,BORDER_CONSTANT:常量法,常数值填充,需要在设置一个value值,已显示填充的颜色。

5、图像融合及类型转换

图像融合通常是指将2张或2张以上的图像信息融合到1张图像上,融合的图像含有更多的信息,能够更方便人们观察或计算机处理。通过图像融合可以将两张不清晰的图像融合得到更清晰的图。图像融合是在图像加法的基础上增加了系数和亮度调节量。

  1. import cv2 # opencv读取的格式是BGR
  2. import matplotlib.pyplot as plt
  3. import numpy as np
  4. img_cat=cv2.imread('data/cat.jpg')
  5. img_dog=cv2.imread('data/dog.jpg')
  6. print(img_cat.shape) #(414, 500, 3)
  7. print(img_dog.shape) #(429, 499, 3)
  8. img_dog = cv2.resize(img_dog, (500, 414))
  9. print(img_dog.shape) #(414, 500, 3)
  • cv2.resize(img, (500, 414))  :根据给定的维度进行变化 ,img表示需要变化的图片, (500, 414)表示变化的维度,长为414, 宽为500
  • cv2.resize(img, (0, 0), fx=3, fy=1) : 使得图像x轴变化为原来的三倍,y轴不变,即fx=3, fy=1,表示对图像的x轴进行变化
  1. res = cv2.resize(img, (0, 0), fx=3, fy=1)
  2. plt.imshow(res)

  1. img_cat1 = img_cat+10 #对三个通道像素点进行加10操作
  2. plt.imshow(img_cat1)

  1. img_new=img_cat+img_dog #将两张图片进行相加操作, 如果大于255,就使用256进行约分
  2. plt.imshow(img_new)

  1. img_add=cv2.add(img_cat, img_dog) #使用cv2.add对两个照片进行加和, 如果加和值大于255,就使用255表示
  2. plt.imshow(img_add)

  1. res = cv2.addWeighted(img_cat, 0.4, img_dog, 0.6, 0) #将两个图片进行重叠
  2. plt.imshow(res)
  • cv2.addWeighted(img_cat, 0.4, img_dog, 0.6, 0) 表示将两个图片进行重叠操作,重叠后的像素表示: img_cat*0.4 + img_dog*0.6 + 0 ,0表示重叠的偏置项

图像类型转换:图像类型转换是指将一种类型转换为另一种类型,比如彩色图像转换为灰度图像、BGR图像转换为RGB图像。OpenCV提供了200多种不同类型之间的转换,其中最常用的如下:

  • 图像类型转化:cv2.cvtColor(img, cv2.COLOR_BGR2GRAY);cv2.cvtColor(img, cv2.COLOR_GRAY2BGR)
  • 颜色通道转化:cv2.cvtColor(img, cv2.COLOR_BGR2RGB

三、图像的几何变换

1、图像缩放

  • 图像缩放主要调用resize()函数实现:cv2.resize(img, (200,100)) 设置的列数为200,行数为100
  • 获取原始图像像素再乘以缩放系数进行图像变换
  1. img=cv2.imread('data/cat.jpg')
  2. rows,cols=img.shape[:2]
  3. img_new = cv2.resize(img, (int(cols*0.6), int(rows*1.2)))
  4. plt.imshow(img_new)
  • 使用(fx,fy)缩放倍数的方法对图像进行放大或缩小:cv2.resize(img, None, fx=0.3, fy=0.3)

2、图像旋转

  • 图像旋转主要调用getRotationMatrix2D()函数和warpAffine()函数实现
  • cv2.getRotationMatrix2D()函数需要三个参数,旋转中心,旋转角度,旋转后图像的缩放比例
  1. import cv2
  2. import matplotlib.pyplot as plt
  3. import numpy as np
  4. img=cv2.imread('data/cat.jpg')
  5. rows,cols,channel=img.shape
  6. M=cv2.getRotationMatrix2D((cols/2,rows/2),30,1) #绕图像的中心旋转,参数:旋转中心 旋转度数 scale
  7. img_new=cv2.warpAffine(img,M,(cols,rows)) #参数:原始图像 旋转参数 变换后图像的宽高
  8. plt.imshow(img_new)

3、图像翻转

图像翻转在OpenCV中调用函数flip()实现,cv2.flip(img, flipCode):其中img表示原始图像,flipCode表示翻转方向,如果flipCode为0,则以X轴为对称轴翻转,如果fliipCode>0则以Y轴为对称轴翻转,如果flipCode<0则在X轴、Y轴方向同时翻转。

  1. import cv2
  2. import matplotlib.pyplot as plt
  3. img=cv2.imread('img/cat.jpg')
  4. src=cv2.cvtColor(img,cv2.COLOR_BGR2RGB)
  5. img1=cv2.flip(src,0) #以X轴为对称轴翻转
  6. img2=cv2.flip(src,1) #以Y轴为对称轴翻转
  7. img3=cv2.flip(src,-1) #X轴Y轴方向同时翻转
  8. #显示图形
  9. titles = ['Source', 'Image1', 'Image2', 'Image3']
  10. images = [src, img1, img2, img3]
  11. for i in range(4):
  12. plt.subplot(2,2,i+1), plt.imshow(images[i], 'gray')
  13. plt.title(titles[i])
  14. plt.xticks([]),plt.yticks([])
  15. plt.show()

4、图像平移

图像平移首先定义平移矩阵M,再调用warpAffine()函数实现平移,核心函数如下:M = np.float32([[1, 0, x], [0, 1, y]]),
 cv2.warpAffine(image, M, (image.shape[1], image.shape[0]))

  1. # encoding:utf-8
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. # 读取图片
  6. img = cv2.imread('img/cat.jpg')
  7. image = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
  8. # 图像向下平移
  9. M = np.float32([[1, 0, 0], [0, 1, 100]])
  10. img1 = cv2.warpAffine(image, M, (image.shape[1], image.shape[0]))
  11. #图像向上平移
  12. M = np.float32([[1, 0, 0], [0, 1, -100]])
  13. img2 = cv2.warpAffine(image, M, (image.shape[1], image.shape[0]))
  14. #图像向右平移
  15. M = np.float32([[1, 0, 100], [0, 1, 0]])
  16. img3 = cv2.warpAffine(image, M, (image.shape[1], image.shape[0]))
  17. #图像向左平移
  18. M = np.float32([[1, 0, -100], [0, 1, 0]])
  19. img4 = cv2.warpAffine(image, M, (image.shape[1], image.shape[0]))
  20. # 显示图形
  21. titles = ['Image1', 'Image2', 'Image3', 'Image4']
  22. images = [img1, img2, img3, img4]
  23. for i in range(4):
  24. plt.subplot(2, 2, i + 1), plt.imshow(images[i], 'gray')
  25. plt.title(titles[i])
  26. plt.xticks([]), plt.yticks([])
  27. plt.show()

5、图像仿射变换

  • 图像仿射变换又称为图像仿射映射,是指在几何中,一个向量空间进行一次线性变换并接上一个平移,变换为另一个向量空间。通常图像的旋转加上拉升就是图像仿射变换,仿射变换需要一个M矩阵实现,但是由于仿射变换比较复杂,很难找到这个M矩阵.
  • OpenCV提供了根据变换前后三个点的对应关系来自动求解M的函数——cv2.getAffineTransform(pos1,pos2),其中pos1和pos2表示变换前后的对应位置关系,输出的结果为仿射矩阵M,接着使用函数cv2.warpAffine()实现图像仿射变换。
  • 图像仿射变换的函数原型如:M = cv2.getAffineTransform(pos1,pos2),pos1表示变换前的位置,pos2表示变换后的位置;cv2.warpAffine(src, M, (cols, rows)),src表示原始图像,M表示仿射变换矩阵,(rows,cols)表示变换后的图像大小,rows表示行数,cols表示列数
  1. #encoding:utf-8
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. #读取图片
  6. src = cv2.imread('img/cat.jpg')
  7. #获取图像大小
  8. rows, cols = src.shape[:2]
  9. #设置图像仿射变换矩阵
  10. pos1 = np.float32([[50,50], [200,50], [50,200]])
  11. pos2 = np.float32([[10,100], [200,50], [100,250]])
  12. M = cv2.getAffineTransform(pos1, pos2)
  13. #图像仿射变换
  14. img_new = cv2.warpAffine(src, M, (cols, rows))
  15. #显示图像
  16. images=[src,img_new]
  17. for i in range(2):
  18. plt.subplot(1,2,i+1)
  19. plt.imshow(images[i])
  20. plt.show()

6、图像透视变换

  • 图像透视变换(Perspective Transformation)的本质是将图像投影到一个新的视平面,OpenCV通过函数cv2.getPerspectiveTransform(pos1,pos2)构造矩阵M,其中pos1和pos2分别表示变换前后的4个点对应位置。得到M后在通过函数cv2.warpPerspective(src,M,(cols,rows))进行透视变换。
  • 图像透视变换的函数原型如下:M = cv2.getPerspectiveTransform(pos1, pos2),pos1表示透视变换前的4个点对应位置,pos2表示透视变换后的4个点对应位置;cv2.warpPerspective(src,M,(cols,rows)),src表示原始图像,M表示透视变换矩阵,(rows,cols)表示变换后的图像大小,rows表示行数,cols表示列数。
  1. #encoding:utf-8
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. #读取图片
  6. src = cv2.imread('img/cat.jpg')
  7. #获取图像大小
  8. rows, cols = src.shape[:2]
  9. #设置图像透视变换矩阵
  10. pos1 = np.float32([[114, 82], [287, 156], [8, 322], [216, 333]])
  11. pos2 = np.float32([[0, 0], [188, 0], [0, 262], [188, 262]])
  12. M = cv2.getPerspectiveTransform(pos1, pos2)
  13. #图像透视变换
  14. img_new= cv2.warpPerspective(src, M, (190, 272))
  15. #显示图像
  16. images=[src,img_new]
  17. for i in range(2):
  18. plt.subplot(1,2,i+1)
  19. plt.imshow(images[i])
  20. plt.show()

四、图像阈值化与平滑处理

1、图像阈值化处理

图像的二值化或阈值化(Binarization)旨在提取图像中的目标物体,将背景以及噪声区分开来。通常会设定一个阈值T,通过T将图像的像素划分为两类:大于T的像素群和小于T的像素群。

灰度转换处理后的图像中,每个像素都只有一个灰度值,其大小表示明暗程度。二值化处理可以将图像中的像素划分为两类颜色,当灰度Gray小于阈值T时,其像素设置为0,表示黑色;当灰度Gray大于或等于阈值T时,其Y值为255,表示白色。

二值化处理广泛应用于各行各业,比如生物学中的细胞图分割、交通领域的车牌设别等。在文化应用领域中,通过二值化处理将所需民族文物图像转换为黑白两色图,从而为后面的图像识别提供更好的支撑作用。

OpenCV中提供了阈值函数threshold()实现二值化处理:retval, dst = cv2.threshold(src, thresh, maxval, type)

  • dst: 输出图
  • src: 输入图,只能输入单通道图像,通常来说为灰度图
  • thresh: 阈值
  • maxval: 最大值,当像素值超过了阈值(或者小于阈值,根据type来决定),所赋予的值
  • type:二值化操作的类型

二值化操作的类型主要包含以下5种类型:

  • cv2.THRESH_BINARY :二进制阈值化,超过阈值部分取maxval(最大值),否则取0
  • cv2.THRESH_BINARY_INV: 反二进制阈值化,超过阈值部分取0,否则取maxval(最大值)
  • cv2.THRESH_TRUNC :截断阈值化,大于阈值部分设为阈值,否则不变
  • cv2.THRESH_TOZERO :阈值化为0,大于等于阈值部分不改变,否则设为0
  • cv2.THRESH_TOZERO_INV :反阈值化为0,大于等于阈值部分设为0,否则不变
  1. import cv2
  2. import matplotlib.pyplot as plt
  3. import numpy as np
  4. img=cv2.imread('data/cat.jpg')
  5. img_gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
  6. ret, thresh1 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_BINARY)
  7. ret, thresh2 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_BINARY_INV)
  8. ret, thresh3 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_TRUNC)
  9. ret, thresh4 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_TOZERO)
  10. ret, thresh5 = cv2.threshold(img_gray, 127, 255, cv2.THRESH_TOZERO_INV)
  11. titles = ['Original Image', 'BINARY', 'BINARY_INV', 'TRUNC', 'TOZERO', 'TOZERO_INV']
  12. images = [img, thresh1, thresh2, thresh3, thresh4, thresh5]
  13. for i in range(6):
  14. plt.subplot(2, 3, i + 1), plt.imshow(images[i], 'gray')
  15. plt.title(titles[i])
  16. plt.xticks([]), plt.yticks([])
  17. plt.show()

cv2.threshold()函数中的参数img_gray表示灰度图,参数127表示对像素值进行分类的阈值,参数255表示像素值高于阈值时应该被赋予的新像素值,最后一个参数对应不同的阈值处理方法。结果如下图:

2、图像平滑处理

图像增强:图像增强是对图像进行处理,使其比原始图像更适合于特定的应用,它需要与实际应用相结合。对于图像的某些特征如边缘、轮廓、对比度等,图像增强是进行强调或锐化,以便于显示、观察或进一步分析与处理。图像增强的方法是因应用不同而不同,研究内容包括:

图像平滑:图像平滑是一种区域增强的算法,平滑算法有邻域平均法、中值滤波、边界保持类滤波等。在图像产生、传输和复制过程中,常常会因为多方面原因而被噪声干扰或出现数据丢失,降低了图像的质量(某一像素,如果它与周围像素点相比有明显的不同,则该点被噪声所感染)。这就需要对图像进行一定的增强处理以减小这些缺陷带来的影响。

邻域平均法:图像简单平滑是指通过邻域简单平均对图像进行平滑处理的方法,用这种方法在一定程度上消除原始图像中的噪声、降低原始图像对比度的作用。它利用卷积运算对图像邻域的像素灰度进行平均,从而达到减小图像中噪声影响、降低图像对比度的目的。邻域平均法主要缺点是在降低噪声的同时使图像变得模糊,特别在边缘和细节处,而且邻域越大,在去噪能力增强的同时模糊程度越严重。

滤波器:在图像简单平滑中,算法利用卷积模板逐一处理图像中每个像素,这一过程可以形象地比作对原始图像的像素一一进行过滤整理,在图像处理中把邻域像素逐一处理的算法过程称为滤波器。平滑线性滤波器的工作原理是利用模板对邻域内像素灰度进行加权平均,也称为均值滤波器

为图像增加噪声如下

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("img/cat.jpg", cv2.IMREAD_UNCHANGED)
  6. rows, cols, chn = img.shape
  7. # 为图片增加噪声
  8. for i in range(5000):
  9. x = np.random.randint(0, rows)
  10. y = np.random.randint(0, cols)
  11. img[x, y, :] = 255
  12. plt.imshow(img)
  13. plt.show()

(1)均值滤波

均值滤波是指任意一点的像素值,都是周围N*M个像素值的均值。Python调用OpenCV实现均值滤波的核心函数如下:
result = cv2.blur(原始图像,核大小)其中,核大小是以(宽度,高度)表示的元祖形式。常见的形式包括:核大小(3,3)和(5,5)。核如果设置为(1,1)处理结果就是原图,核中每个权重值相同,称为均值。核越大图像会变的越模糊。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("img/cat.jpg", cv2.IMREAD_UNCHANGED)
  6. rows, cols, chn = img.shape
  7. # 为图片增加噪声
  8. for i in range(5000):
  9. x = np.random.randint(0, rows)
  10. y = np.random.randint(0, cols)
  11. img[x, y, :] = 255
  12. source = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
  13. # 均值滤波
  14. result = cv2.blur(source, (5, 5))
  15. # 显示图形
  16. titles = ['Source Image', 'Blur Image']
  17. images = [source, result]
  18. for i in range(2):
  19. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  20. plt.title(titles[i])
  21. plt.xticks([]), plt.yticks([])
  22. plt.show()

(2)方框滤波

方框滤波和均值滤波核基本一致,区别是需不需要均一化处理。OpenCV调用boxFilter()函数实现方框滤波。函数如下:
result = cv2.boxFilter(原始图像, 目标图像深度, 核大小, normalize属性),其中,目标图像深度是int类型,通常用“-1”表示与原始图像一致;核大小主要包括(3,3)和(5,5)normalize属性表示是否对目标图像进行归一化处理。当normalize为true时需要执行均值化处理,当normalize为false时,不进行均值化处理,实际上为求周围各像素的和,很容易发生溢出,溢出时均为白色,对应像素值为255。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("img/cat.jpg", cv2.IMREAD_UNCHANGED)
  6. rows, cols, chn = img.shape
  7. # 为图片增加噪声
  8. for i in range(5000):
  9. x = np.random.randint(0, rows)
  10. y = np.random.randint(0, cols)
  11. img[x, y, :] = 255
  12. source = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
  13. # 方框滤波
  14. result = cv2.boxFilter(source, -1, (5,5), normalize=True)
  15. #result = cv2.boxFilter(source, -1, (5,5), normalize=False)
  16. # 显示图形
  17. titles = ['Source Image', 'BoxFilter Image']
  18. images = [source, result]
  19. for i in range(2):
  20. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  21. plt.title(titles[i])
  22. plt.xticks([]), plt.yticks([])
  23. plt.show()

(3)高斯滤波

为了克服简单局部平均法造成图像模糊的弊端,目前已提出许多保持边缘、细节的局部平滑算法。它们的出发点都集中在如何选择邻域的大小、形状和方向、参数加平均及邻域各店的权重系数等。

图像高斯平滑也是邻域平均的思想对图像进行平滑的一种方法,在图像高斯平滑中,对图像进行平均时,不同位置的像素被赋予了不同的权重。高斯平滑与简单平滑不同,它在对邻域内像素进行平均时,给予不同位置的像素不同的权值,高斯滤波让临近的像素具有更高的重要度,对周围像素计算加权平均值,较近的像素具有较大的权重值。

Python中OpenCV主要调用GaussianBlur函数:dst = cv2.GaussianBlur(src, ksize, sigmaX) 其中,src表示原始图像,ksize表示核大小,sigmaX表示X方向方差。注意,核大小(N, N)必须是奇数,X方向方差主要控制权重。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("data/cat.jpg", cv2.IMREAD_UNCHANGED)
  6. rows, cols, chn = img.shape
  7. # 为图片增加噪声
  8. for i in range(5000):
  9. x = np.random.randint(0, rows)
  10. y = np.random.randint(0, cols)
  11. img[x, y, :] = 255
  12. source = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
  13. #高斯滤波
  14. result = cv2.GaussianBlur(source, (3,3), 0)
  15. # 显示图形
  16. titles = ['Source Image', 'GaussianBlur Image']
  17. images = [source, result]
  18. for i in range(2):
  19. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  20. plt.title(titles[i])
  21. plt.xticks([]), plt.yticks([])
  22. plt.show()

(4)中值滤波

在使用邻域平均法去噪的同时也使得边界变得模糊,而中值滤波是非线性的图像处理方法,在去噪的同时可以兼顾到边界信息的保留。选一个含有奇数点的窗口W,将这个窗口在图像上扫描,把窗口中所含的像素点按灰度级的升或降序排列,取位于中间的灰度值来代替该点的灰度值。

OpenCV主要调用medianBlur()函数实现中值滤波。图像平滑里中值滤波的效果最好。dst = cv2.medianBlur(src, ksize) 其中,src表示源文件,ksize表示核大小。核必须是大于1的奇数,如3、5、7等。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("img/cat.jpg", cv2.IMREAD_UNCHANGED)
  6. rows, cols, chn = img.shape
  7. # 为图片增加噪声
  8. for i in range(5000):
  9. x = np.random.randint(0, rows)
  10. y = np.random.randint(0, cols)
  11. img[x, y, :] = 255
  12. source = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
  13. #中值滤波
  14. result = cv2.medianBlur(img, 5) # 中值滤波
  15. # 显示图形
  16. titles = ['Source Image', 'MedianBlur Image']
  17. images = [source, result]
  18. for i in range(2):
  19. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  20. plt.title(titles[i])
  21. plt.xticks([]), plt.yticks([])
  22. plt.show()

注:常用的窗口还有方形、十字形、圆形和环形。不同形状的窗口产生不同的滤波效果,方形和圆形窗口适合外轮廓线较长的物体图像,而十字形窗口对有尖顶角状的图像效果好。中值滤波对于消除孤立点和线段的干扰十分有用,但对消除高斯噪声的影响效果不佳。对于一些细节较多的复杂图像,可以多次使用不同的中值滤波。

五、图像形态学操作

1、腐蚀操作

图像的腐蚀(Erosion)操作主要用来寻找图像中的极小区域,类似于“领域被蚕食”,将图像中的高亮区域或白色部分进行缩减细化,其运行结果图比原图的高亮区域更小。其主要包括两个输入对象:二值图像和卷积核。卷积核是腐蚀中的关键数组,采用numpy库可以成。卷积核的中心点逐个像素扫描原始图像。被扫描到的原始图像中的像素点,只有当卷积核对应的元素值均为1时,其值才为1,否则其值修改为0。图像被腐蚀后,去除了噪声,但是会压缩图像。

图像腐蚀主要使用的函数为erode,其原型为:dst = cv2.erode(src, kernel, iterations) 参数dst表示处理的结果,src表示原图像,kernel表示卷积核,iterations表示迭代次数,迭代次数默认是1,表示进行一次腐蚀,也可以根据需要进行多次迭代,进行多次腐蚀。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("data/dige.png")
  6. kernel = np.ones((3,3),np.uint8) #表示3*3的卷积核
  7. erosion = cv2.erode(img,kernel,iterations = 1) #图像腐蚀操作
  8. # 显示图形
  9. titles = ['Source Image', 'Erosion Image']
  10. images = [img, erosion]
  11. for i in range(2):
  12. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  13. plt.title(titles[i])
  14. plt.xticks([]), plt.yticks([])
  15. plt.show()

2、膨胀操作

图像膨胀是腐蚀操作的逆操作,图像的膨胀(Dilation)操作主要用来寻找图像中的极大区域,类似于“领域扩张”,将图像中的高亮区域或白色部分进行扩张,其运行结果图比原图的高亮区域更大,主要用于去噪。其主要包括两个输入对象:二值图像和卷积核。卷积核的中心点逐个像素扫描原始图像,被扫描到的原始图像中的像素点,当卷积核对应的元素值只要有一个为1时,其值就为1,否则为0。

图像膨胀主要使用的函数为dilate,其原型为:dst = cv2.dilate(src, kernel, iterations) 参数dst表示处理的结果,src表示原图像,kernel表示卷积核,iterations表示迭代次数,迭代次数默认是1,表示进行一次膨胀,也可以根据需要进行多次迭代,进行多次膨胀。通常进行1次膨胀即可。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("data/dige.png")
  6. kernel = np.ones((3,3),np.uint8) #表示3*3的卷积核
  7. dilate = cv2.dilate(img,kernel,iterations = 2) #图像膨胀操作
  8. # 显示图形
  9. titles = ['Source Image', 'Dilate Image']
  10. images = [img, dilate]
  11. for i in range(2):
  12. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  13. plt.title(titles[i])
  14. plt.xticks([]), plt.yticks([])
  15. plt.show()

3、开运算

图像开运算是图像依次经过腐蚀、膨胀处理后的过程。图像被腐蚀后,去除了噪声,但是也压缩了图像;接着对腐蚀过的图像进行膨胀处理,可以去除噪声,并保留原有图像。

图像开运算主要使用的函数morphologyEx,它是形态学扩展的一组函数,其参数cv2.MORPH_OPEN对应开运算。其原型如下:dst = cv2.morphologyEx(src, cv2.MORPH_OPEN, kernel) 参数dst表示处理的结果,src表示原图像,cv2.MORPH_OPEN表示开运算,kernel表示卷积核。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("data/dige.png")
  6. kernel = np.ones((5,5),np.uint8)
  7. # 开运算:先腐蚀,再膨胀
  8. opening = cv2.morphologyEx(img, cv2.MORPH_OPEN, kernel)
  9. # 显示图形
  10. titles = ['Source Image', 'Opening Image']
  11. images = [img, opening]
  12. for i in range(2):
  13. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  14. plt.title(titles[i])
  15. plt.xticks([]), plt.yticks([])
  16. plt.show()

4、闭运算

图像闭运算是图像依次经过膨胀、腐蚀处理后的过程。图像先膨胀,后腐蚀,它有助于关闭前景物体内部的小孔,或物体上的小黑点。

图像闭运算主要使用的函数morphologyEx,其原型如下:dst = cv2.morphologyEx(src, cv2.MORPH_CLOSE, kernel) 参数dst表示处理的结果,src表示原图像, cv2.MORPH_CLOSE表示闭运算,kernel表示卷积核。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("data/dige.png")
  6. kernel = np.ones((5,5),np.uint8)
  7. # 闭运算:先膨胀,再腐蚀
  8. closing = cv2.morphologyEx(img, cv2.MORPH_CLOSE, kernel)
  9. # 显示图形
  10. titles = ['Source Image', 'Closing Image']
  11. images = [img, closing]
  12. for i in range(2):
  13. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  14. plt.title(titles[i])
  15. plt.xticks([]), plt.yticks([])
  16. plt.show()

5、梯度运算

图像梯度运算是膨胀图像减去腐蚀图像的结果,得到图像的轮廓,其中二值图像1表示白色点,0表示黑色点。梯度运算(img) = 膨胀(img) - 腐蚀(img)

图像梯度运算主要使用的函数morphologyEx,参数为cv2.MORPH_GRADIENT。其原型如下:dst = cv2.morphologyEx(src, cv2.MORPH_GRADIENT, kernel) 参数dst表示处理的结果,src表示原图像, cv2.MORPH_GRADIENT表示梯度运算,kernel表示卷积核。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("data/dige.png")
  6. kernel = np.ones((5,5),np.uint8)
  7. # 梯度运算
  8. gradient = cv2.morphologyEx(img, cv2.MORPH_GRADIENT, kernel)
  9. # 显示图形
  10. titles = ['Source Image', 'Gradient Image']
  11. images = [img, gradient]
  12. for i in range(2):
  13. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  14. plt.title(titles[i])
  15. plt.xticks([]), plt.yticks([])
  16. plt.show()

6、顶帽运算

图像顶帽(图像礼帽)运算是原始图像减去图像开运算的结果,得到图像的噪声。顶帽运算(img) = 原始图像(img) - 开运算(img)

图像开运算主要使用的函数morphologyEx,它是形态学扩展的一组函数,其参数cv2.MORPH_TOPHAT对应开运算。其原型如下:dst = cv2.morphologyEx(src, cv2.MORPH_TOPHAT, kernel) 参数dst表示处理的结果,src表示原图像,cv2.MORPH_TOPHAT表示顶帽运算,kernel表示卷积核。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("data/dige.png")
  6. kernel = np.ones((5,5),np.uint8)
  7. # 图像顶帽运算
  8. tophat = cv2.morphologyEx(img, cv2.MORPH_TOPHAT, kernel)
  9. # 显示图形
  10. titles = ['Source Image', 'Tophat Image']
  11. images = [img, tophat]
  12. for i in range(2):
  13. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  14. plt.title(titles[i])
  15. plt.xticks([]), plt.yticks([])
  16. plt.show()

7、黑帽运算

图像黑帽运算是图像闭运算操作减去原始图像的结果,得到图像内部的小孔,或者前景色中的小黑点。黑帽运算(img) = 闭运算图像(img) - 原始图像(img)

图像开运算主要使用的函数morphologyEx,它是形态学扩展的一组函数,其参数cv2.MORPH_BLACKHAT对应开运算。其原型如下:dst = cv2.morphologyEx(src, cv2.MORPH_BLACKHAT, kernel) 参数dst表示处理的结果,src表示原图像,cv2.MORPH_BLACKHAT表示黑帽运算,kernel表示卷积核。

  1. # -*- coding:utf-8 -*-
  2. import cv2
  3. import numpy as np
  4. import matplotlib.pyplot as plt
  5. img = cv2.imread("data/dige.png")
  6. kernel = np.ones((5,5),np.uint8)
  7. # 图像黑帽运算
  8. blackhat = cv2.morphologyEx(img,cv2.MORPH_BLACKHAT, kernel)
  9. # 显示图形
  10. titles = ['Source Image', 'Blackhat Image']
  11. images = [img, blackhat]
  12. for i in range(2):
  13. plt.subplot(1, 2, i + 1), plt.imshow(images[i], 'gray')
  14. plt.title(titles[i])
  15. plt.xticks([]), plt.yticks([])
  16. plt.show()

](这里写自定义目录标题)

欢迎使用Markdown编辑器

你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。

新的改变

我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:

  1. 全新的界面设计 ,将会带来全新的写作体验;
  2. 在创作中心设置你喜爱的代码高亮样式,Markdown 将代码片显示选择的高亮样式 进行展示;
  3. 增加了 图片拖拽 功能,你可以将本地的图片直接拖拽到编辑区域直接展示;
  4. 全新的 KaTeX数学公式 语法;
  5. 增加了支持甘特图的mermaid语法1 功能;
  6. 增加了 多屏幕编辑 Markdown文章功能;
  7. 增加了 焦点写作模式、预览模式、简洁写作模式、左右区域同步滚轮设置 等功能,功能按钮位于编辑区域与预览区域中间;
  8. 增加了 检查列表 功能。

功能快捷键

撤销:Ctrl/Command + Z
重做:Ctrl/Command + Y
加粗:Ctrl/Command + B
斜体:Ctrl/Command + I
标题:Ctrl/Command + Shift + H
无序列表:Ctrl/Command + Shift + U
有序列表:Ctrl/Command + Shift + O
检查列表:Ctrl/Command + Shift + C
插入代码:Ctrl/Command + Shift + K
插入链接:Ctrl/Command + Shift + L
插入图片:Ctrl/Command + Shift + G
查找:Ctrl/Command + F
替换:Ctrl/Command + G

合理的创建标题,有助于目录的生成

直接输入1次#,并按下space后,将生成1级标题。
输入2次#,并按下space后,将生成2级标题。
以此类推,我们支持6级标题。有助于使用TOC语法后生成一个完美的目录。

如何改变文本的样式

强调文本 强调文本

加粗文本 加粗文本

标记文本

删除文本

引用文本

H2O is是液体。

210 运算结果是 1024.

插入链接与图片

链接: link.

图片:

带尺寸的图片:

居中的图片:

居中并且带尺寸的图片:

当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。

如何插入一段漂亮的代码片

去博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片.

// An highlighted block
var foo = 'bar';

生成一个适合你的列表

  • 项目

    • 项目

      • 项目
  1. 项目1
  2. 项目2
  3. 项目3
  • 计划任务
  • 完成任务

创建一个表格

一个简单的表格是这么创建的:

项目 Value
电脑 $1600
手机 $12
导管 $1

设定内容居中、居左、居右

使用:---------:居中
使用:----------居左
使用----------:居右

第一列 第二列 第三列
第一列文本居中 第二列文本居右 第三列文本居左

SmartyPants

SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:

TYPE ASCII HTML
Single backticks 'Isn't this fun?' ‘Isn’t this fun?’
Quotes "Isn't this fun?" “Isn’t this fun?”
Dashes -- is en-dash, --- is em-dash – is en-dash, — is em-dash

创建一个自定义列表

Markdown
Text-to-HTML conversion tool
Authors
John
Luke

如何创建一个注脚

一个具有注脚的文本。2

注释也是必不可少的

Markdown将文本转换为 HTML

KaTeX数学公式

您可以使用渲染LaTeX数学表达式 KaTeX:

Gamma公式展示 Γ(n)=(n−1)!∀n∈N\Gamma(n) = (n-1)!\quad\forall n\in\mathbb NΓ(n)=(n−1)!∀n∈N 是通过欧拉积分

Γ(z)=∫0∞tz−1e−tdt.\Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=∫0∞​tz−1e−tdt.

你可以找到更多关于的信息 LaTeX 数学表达式here.

新的甘特图功能,丰富你的文章

Mon 06Mon 13Mon 20已完成 进行中 计划一 计划二 现有任务Adding GANTT diagram functionality to mermaid
  • 关于 甘特图 语法,参考 这儿,

UML 图表

可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图:

#mermaid-svg-rjvTE5Mu0BPPzsrW .label{font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family);fill:#333;color:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .label text{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .node rect,#mermaid-svg-rjvTE5Mu0BPPzsrW .node circle,#mermaid-svg-rjvTE5Mu0BPPzsrW .node ellipse,#mermaid-svg-rjvTE5Mu0BPPzsrW .node polygon,#mermaid-svg-rjvTE5Mu0BPPzsrW .node path{fill:#ECECFF;stroke:#9370db;stroke-width:1px}#mermaid-svg-rjvTE5Mu0BPPzsrW .node .label{text-align:center;fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .node.clickable{cursor:pointer}#mermaid-svg-rjvTE5Mu0BPPzsrW .arrowheadPath{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .edgePath .path{stroke:#333;stroke-width:1.5px}#mermaid-svg-rjvTE5Mu0BPPzsrW .flowchart-link{stroke:#333;fill:none}#mermaid-svg-rjvTE5Mu0BPPzsrW .edgeLabel{background-color:#e8e8e8;text-align:center}#mermaid-svg-rjvTE5Mu0BPPzsrW .edgeLabel rect{opacity:0.9}#mermaid-svg-rjvTE5Mu0BPPzsrW .edgeLabel span{color:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .cluster rect{fill:#ffffde;stroke:#aa3;stroke-width:1px}#mermaid-svg-rjvTE5Mu0BPPzsrW .cluster text{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW div.mermaidTooltip{position:absolute;text-align:center;max-width:200px;padding:2px;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family);font-size:12px;background:#ffffde;border:1px solid #aa3;border-radius:2px;pointer-events:none;z-index:100}#mermaid-svg-rjvTE5Mu0BPPzsrW .actor{stroke:#ccf;fill:#ECECFF}#mermaid-svg-rjvTE5Mu0BPPzsrW text.actor>tspan{fill:#000;stroke:none}#mermaid-svg-rjvTE5Mu0BPPzsrW .actor-line{stroke:grey}#mermaid-svg-rjvTE5Mu0BPPzsrW .messageLine0{stroke-width:1.5;stroke-dasharray:none;stroke:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .messageLine1{stroke-width:1.5;stroke-dasharray:2, 2;stroke:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW #arrowhead path{fill:#333;stroke:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .sequenceNumber{fill:#fff}#mermaid-svg-rjvTE5Mu0BPPzsrW #sequencenumber{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW #crosshead path{fill:#333;stroke:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .messageText{fill:#333;stroke:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .labelBox{stroke:#ccf;fill:#ECECFF}#mermaid-svg-rjvTE5Mu0BPPzsrW .labelText,#mermaid-svg-rjvTE5Mu0BPPzsrW .labelText>tspan{fill:#000;stroke:none}#mermaid-svg-rjvTE5Mu0BPPzsrW .loopText,#mermaid-svg-rjvTE5Mu0BPPzsrW .loopText>tspan{fill:#000;stroke:none}#mermaid-svg-rjvTE5Mu0BPPzsrW .loopLine{stroke-width:2px;stroke-dasharray:2, 2;stroke:#ccf;fill:#ccf}#mermaid-svg-rjvTE5Mu0BPPzsrW .note{stroke:#aa3;fill:#fff5ad}#mermaid-svg-rjvTE5Mu0BPPzsrW .noteText,#mermaid-svg-rjvTE5Mu0BPPzsrW .noteText>tspan{fill:#000;stroke:none}#mermaid-svg-rjvTE5Mu0BPPzsrW .activation0{fill:#f4f4f4;stroke:#666}#mermaid-svg-rjvTE5Mu0BPPzsrW .activation1{fill:#f4f4f4;stroke:#666}#mermaid-svg-rjvTE5Mu0BPPzsrW .activation2{fill:#f4f4f4;stroke:#666}#mermaid-svg-rjvTE5Mu0BPPzsrW .mermaid-main-font{font-family:"trebuchet ms", verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW .section{stroke:none;opacity:0.2}#mermaid-svg-rjvTE5Mu0BPPzsrW .section0{fill:rgba(102,102,255,0.49)}#mermaid-svg-rjvTE5Mu0BPPzsrW .section2{fill:#fff400}#mermaid-svg-rjvTE5Mu0BPPzsrW .section1,#mermaid-svg-rjvTE5Mu0BPPzsrW .section3{fill:#fff;opacity:0.2}#mermaid-svg-rjvTE5Mu0BPPzsrW .sectionTitle0{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .sectionTitle1{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .sectionTitle2{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .sectionTitle3{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .sectionTitle{text-anchor:start;font-size:11px;text-height:14px;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW .grid .tick{stroke:#d3d3d3;opacity:0.8;shape-rendering:crispEdges}#mermaid-svg-rjvTE5Mu0BPPzsrW .grid .tick text{font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW .grid path{stroke-width:0}#mermaid-svg-rjvTE5Mu0BPPzsrW .today{fill:none;stroke:red;stroke-width:2px}#mermaid-svg-rjvTE5Mu0BPPzsrW .task{stroke-width:2}#mermaid-svg-rjvTE5Mu0BPPzsrW .taskText{text-anchor:middle;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW .taskText:not([font-size]){font-size:11px}#mermaid-svg-rjvTE5Mu0BPPzsrW .taskTextOutsideRight{fill:#000;text-anchor:start;font-size:11px;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW .taskTextOutsideLeft{fill:#000;text-anchor:end;font-size:11px}#mermaid-svg-rjvTE5Mu0BPPzsrW .task.clickable{cursor:pointer}#mermaid-svg-rjvTE5Mu0BPPzsrW .taskText.clickable{cursor:pointer;fill:#003163 !important;font-weight:bold}#mermaid-svg-rjvTE5Mu0BPPzsrW .taskTextOutsideLeft.clickable{cursor:pointer;fill:#003163 !important;font-weight:bold}#mermaid-svg-rjvTE5Mu0BPPzsrW .taskTextOutsideRight.clickable{cursor:pointer;fill:#003163 !important;font-weight:bold}#mermaid-svg-rjvTE5Mu0BPPzsrW .taskText0,#mermaid-svg-rjvTE5Mu0BPPzsrW .taskText1,#mermaid-svg-rjvTE5Mu0BPPzsrW .taskText2,#mermaid-svg-rjvTE5Mu0BPPzsrW .taskText3{fill:#fff}#mermaid-svg-rjvTE5Mu0BPPzsrW .task0,#mermaid-svg-rjvTE5Mu0BPPzsrW .task1,#mermaid-svg-rjvTE5Mu0BPPzsrW .task2,#mermaid-svg-rjvTE5Mu0BPPzsrW .task3{fill:#8a90dd;stroke:#534fbc}#mermaid-svg-rjvTE5Mu0BPPzsrW .taskTextOutside0,#mermaid-svg-rjvTE5Mu0BPPzsrW .taskTextOutside2{fill:#000}#mermaid-svg-rjvTE5Mu0BPPzsrW .taskTextOutside1,#mermaid-svg-rjvTE5Mu0BPPzsrW .taskTextOutside3{fill:#000}#mermaid-svg-rjvTE5Mu0BPPzsrW .active0,#mermaid-svg-rjvTE5Mu0BPPzsrW .active1,#mermaid-svg-rjvTE5Mu0BPPzsrW .active2,#mermaid-svg-rjvTE5Mu0BPPzsrW .active3{fill:#bfc7ff;stroke:#534fbc}#mermaid-svg-rjvTE5Mu0BPPzsrW .activeText0,#mermaid-svg-rjvTE5Mu0BPPzsrW .activeText1,#mermaid-svg-rjvTE5Mu0BPPzsrW .activeText2,#mermaid-svg-rjvTE5Mu0BPPzsrW .activeText3{fill:#000 !important}#mermaid-svg-rjvTE5Mu0BPPzsrW .done0,#mermaid-svg-rjvTE5Mu0BPPzsrW .done1,#mermaid-svg-rjvTE5Mu0BPPzsrW .done2,#mermaid-svg-rjvTE5Mu0BPPzsrW .done3{stroke:grey;fill:#d3d3d3;stroke-width:2}#mermaid-svg-rjvTE5Mu0BPPzsrW .doneText0,#mermaid-svg-rjvTE5Mu0BPPzsrW .doneText1,#mermaid-svg-rjvTE5Mu0BPPzsrW .doneText2,#mermaid-svg-rjvTE5Mu0BPPzsrW .doneText3{fill:#000 !important}#mermaid-svg-rjvTE5Mu0BPPzsrW .crit0,#mermaid-svg-rjvTE5Mu0BPPzsrW .crit1,#mermaid-svg-rjvTE5Mu0BPPzsrW .crit2,#mermaid-svg-rjvTE5Mu0BPPzsrW .crit3{stroke:#f88;fill:red;stroke-width:2}#mermaid-svg-rjvTE5Mu0BPPzsrW .activeCrit0,#mermaid-svg-rjvTE5Mu0BPPzsrW .activeCrit1,#mermaid-svg-rjvTE5Mu0BPPzsrW .activeCrit2,#mermaid-svg-rjvTE5Mu0BPPzsrW .activeCrit3{stroke:#f88;fill:#bfc7ff;stroke-width:2}#mermaid-svg-rjvTE5Mu0BPPzsrW .doneCrit0,#mermaid-svg-rjvTE5Mu0BPPzsrW .doneCrit1,#mermaid-svg-rjvTE5Mu0BPPzsrW .doneCrit2,#mermaid-svg-rjvTE5Mu0BPPzsrW .doneCrit3{stroke:#f88;fill:#d3d3d3;stroke-width:2;cursor:pointer;shape-rendering:crispEdges}#mermaid-svg-rjvTE5Mu0BPPzsrW .milestone{transform:rotate(45deg) scale(0.8, 0.8)}#mermaid-svg-rjvTE5Mu0BPPzsrW .milestoneText{font-style:italic}#mermaid-svg-rjvTE5Mu0BPPzsrW .doneCritText0,#mermaid-svg-rjvTE5Mu0BPPzsrW .doneCritText1,#mermaid-svg-rjvTE5Mu0BPPzsrW .doneCritText2,#mermaid-svg-rjvTE5Mu0BPPzsrW .doneCritText3{fill:#000 !important}#mermaid-svg-rjvTE5Mu0BPPzsrW .activeCritText0,#mermaid-svg-rjvTE5Mu0BPPzsrW .activeCritText1,#mermaid-svg-rjvTE5Mu0BPPzsrW .activeCritText2,#mermaid-svg-rjvTE5Mu0BPPzsrW .activeCritText3{fill:#000 !important}#mermaid-svg-rjvTE5Mu0BPPzsrW .titleText{text-anchor:middle;font-size:18px;fill:#000;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW g.classGroup text{fill:#9370db;stroke:none;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family);font-size:10px}#mermaid-svg-rjvTE5Mu0BPPzsrW g.classGroup text .title{font-weight:bolder}#mermaid-svg-rjvTE5Mu0BPPzsrW g.clickable{cursor:pointer}#mermaid-svg-rjvTE5Mu0BPPzsrW g.classGroup rect{fill:#ECECFF;stroke:#9370db}#mermaid-svg-rjvTE5Mu0BPPzsrW g.classGroup line{stroke:#9370db;stroke-width:1}#mermaid-svg-rjvTE5Mu0BPPzsrW .classLabel .box{stroke:none;stroke-width:0;fill:#ECECFF;opacity:0.5}#mermaid-svg-rjvTE5Mu0BPPzsrW .classLabel .label{fill:#9370db;font-size:10px}#mermaid-svg-rjvTE5Mu0BPPzsrW .relation{stroke:#9370db;stroke-width:1;fill:none}#mermaid-svg-rjvTE5Mu0BPPzsrW .dashed-line{stroke-dasharray:3}#mermaid-svg-rjvTE5Mu0BPPzsrW #compositionStart{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-rjvTE5Mu0BPPzsrW #compositionEnd{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-rjvTE5Mu0BPPzsrW #aggregationStart{fill:#ECECFF;stroke:#9370db;stroke-width:1}#mermaid-svg-rjvTE5Mu0BPPzsrW #aggregationEnd{fill:#ECECFF;stroke:#9370db;stroke-width:1}#mermaid-svg-rjvTE5Mu0BPPzsrW #dependencyStart{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-rjvTE5Mu0BPPzsrW #dependencyEnd{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-rjvTE5Mu0BPPzsrW #extensionStart{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-rjvTE5Mu0BPPzsrW #extensionEnd{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-rjvTE5Mu0BPPzsrW .commit-id,#mermaid-svg-rjvTE5Mu0BPPzsrW .commit-msg,#mermaid-svg-rjvTE5Mu0BPPzsrW .branch-label{fill:lightgrey;color:lightgrey;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW .pieTitleText{text-anchor:middle;font-size:25px;fill:#000;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW .slice{font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW g.stateGroup text{fill:#9370db;stroke:none;font-size:10px;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW g.stateGroup text{fill:#9370db;fill:#333;stroke:none;font-size:10px}#mermaid-svg-rjvTE5Mu0BPPzsrW g.statediagram-cluster .cluster-label text{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW g.stateGroup .state-title{font-weight:bolder;fill:#000}#mermaid-svg-rjvTE5Mu0BPPzsrW g.stateGroup rect{fill:#ECECFF;stroke:#9370db}#mermaid-svg-rjvTE5Mu0BPPzsrW g.stateGroup line{stroke:#9370db;stroke-width:1}#mermaid-svg-rjvTE5Mu0BPPzsrW .transition{stroke:#9370db;stroke-width:1;fill:none}#mermaid-svg-rjvTE5Mu0BPPzsrW .stateGroup .composit{fill:white;border-bottom:1px}#mermaid-svg-rjvTE5Mu0BPPzsrW .stateGroup .alt-composit{fill:#e0e0e0;border-bottom:1px}#mermaid-svg-rjvTE5Mu0BPPzsrW .state-note{stroke:#aa3;fill:#fff5ad}#mermaid-svg-rjvTE5Mu0BPPzsrW .state-note text{fill:black;stroke:none;font-size:10px}#mermaid-svg-rjvTE5Mu0BPPzsrW .stateLabel .box{stroke:none;stroke-width:0;fill:#ECECFF;opacity:0.7}#mermaid-svg-rjvTE5Mu0BPPzsrW .edgeLabel text{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .stateLabel text{fill:#000;font-size:10px;font-weight:bold;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-rjvTE5Mu0BPPzsrW .node circle.state-start{fill:black;stroke:black}#mermaid-svg-rjvTE5Mu0BPPzsrW .node circle.state-end{fill:black;stroke:white;stroke-width:1.5}#mermaid-svg-rjvTE5Mu0BPPzsrW #statediagram-barbEnd{fill:#9370db}#mermaid-svg-rjvTE5Mu0BPPzsrW .statediagram-cluster rect{fill:#ECECFF;stroke:#9370db;stroke-width:1px}#mermaid-svg-rjvTE5Mu0BPPzsrW .statediagram-cluster rect.outer{rx:5px;ry:5px}#mermaid-svg-rjvTE5Mu0BPPzsrW .statediagram-state .divider{stroke:#9370db}#mermaid-svg-rjvTE5Mu0BPPzsrW .statediagram-state .title-state{rx:5px;ry:5px}#mermaid-svg-rjvTE5Mu0BPPzsrW .statediagram-cluster.statediagram-cluster .inner{fill:white}#mermaid-svg-rjvTE5Mu0BPPzsrW .statediagram-cluster.statediagram-cluster-alt .inner{fill:#e0e0e0}#mermaid-svg-rjvTE5Mu0BPPzsrW .statediagram-cluster .inner{rx:0;ry:0}#mermaid-svg-rjvTE5Mu0BPPzsrW .statediagram-state rect.basic{rx:5px;ry:5px}#mermaid-svg-rjvTE5Mu0BPPzsrW .statediagram-state rect.divider{stroke-dasharray:10,10;fill:#efefef}#mermaid-svg-rjvTE5Mu0BPPzsrW .note-edge{stroke-dasharray:5}#mermaid-svg-rjvTE5Mu0BPPzsrW .statediagram-note rect{fill:#fff5ad;stroke:#aa3;stroke-width:1px;rx:0;ry:0}:root{--mermaid-font-family: '"trebuchet ms", verdana, arial';--mermaid-font-family: "Comic Sans MS", "Comic Sans", cursive}#mermaid-svg-rjvTE5Mu0BPPzsrW .error-icon{fill:#522}#mermaid-svg-rjvTE5Mu0BPPzsrW .error-text{fill:#522;stroke:#522}#mermaid-svg-rjvTE5Mu0BPPzsrW .edge-thickness-normal{stroke-width:2px}#mermaid-svg-rjvTE5Mu0BPPzsrW .edge-thickness-thick{stroke-width:3.5px}#mermaid-svg-rjvTE5Mu0BPPzsrW .edge-pattern-solid{stroke-dasharray:0}#mermaid-svg-rjvTE5Mu0BPPzsrW .edge-pattern-dashed{stroke-dasharray:3}#mermaid-svg-rjvTE5Mu0BPPzsrW .edge-pattern-dotted{stroke-dasharray:2}#mermaid-svg-rjvTE5Mu0BPPzsrW .marker{fill:#333}#mermaid-svg-rjvTE5Mu0BPPzsrW .marker.cross{stroke:#333}:root { --mermaid-font-family: "trebuchet ms", verdana, arial;}#mermaid-svg-rjvTE5Mu0BPPzsrW {color: rgba(0, 0, 0, 0.75);font: ;}张三李四王五你好!李四, 最近怎么样?你最近怎么样,王五?我很好,谢谢!我很好,谢谢!李四想了很长时间, 文字太长了不适合放在一行.打量着王五...很好... 王五, 你怎么样?张三李四王五

这将产生一个流程图。:

#mermaid-svg-36HF6S0hKMQnsyA2 .label{font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family);fill:#333;color:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .label text{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .node rect,#mermaid-svg-36HF6S0hKMQnsyA2 .node circle,#mermaid-svg-36HF6S0hKMQnsyA2 .node ellipse,#mermaid-svg-36HF6S0hKMQnsyA2 .node polygon,#mermaid-svg-36HF6S0hKMQnsyA2 .node path{fill:#ECECFF;stroke:#9370db;stroke-width:1px}#mermaid-svg-36HF6S0hKMQnsyA2 .node .label{text-align:center;fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .node.clickable{cursor:pointer}#mermaid-svg-36HF6S0hKMQnsyA2 .arrowheadPath{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .edgePath .path{stroke:#333;stroke-width:1.5px}#mermaid-svg-36HF6S0hKMQnsyA2 .flowchart-link{stroke:#333;fill:none}#mermaid-svg-36HF6S0hKMQnsyA2 .edgeLabel{background-color:#e8e8e8;text-align:center}#mermaid-svg-36HF6S0hKMQnsyA2 .edgeLabel rect{opacity:0.9}#mermaid-svg-36HF6S0hKMQnsyA2 .edgeLabel span{color:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .cluster rect{fill:#ffffde;stroke:#aa3;stroke-width:1px}#mermaid-svg-36HF6S0hKMQnsyA2 .cluster text{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 div.mermaidTooltip{position:absolute;text-align:center;max-width:200px;padding:2px;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family);font-size:12px;background:#ffffde;border:1px solid #aa3;border-radius:2px;pointer-events:none;z-index:100}#mermaid-svg-36HF6S0hKMQnsyA2 .actor{stroke:#ccf;fill:#ECECFF}#mermaid-svg-36HF6S0hKMQnsyA2 text.actor>tspan{fill:#000;stroke:none}#mermaid-svg-36HF6S0hKMQnsyA2 .actor-line{stroke:grey}#mermaid-svg-36HF6S0hKMQnsyA2 .messageLine0{stroke-width:1.5;stroke-dasharray:none;stroke:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .messageLine1{stroke-width:1.5;stroke-dasharray:2, 2;stroke:#333}#mermaid-svg-36HF6S0hKMQnsyA2 #arrowhead path{fill:#333;stroke:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .sequenceNumber{fill:#fff}#mermaid-svg-36HF6S0hKMQnsyA2 #sequencenumber{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 #crosshead path{fill:#333;stroke:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .messageText{fill:#333;stroke:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .labelBox{stroke:#ccf;fill:#ECECFF}#mermaid-svg-36HF6S0hKMQnsyA2 .labelText,#mermaid-svg-36HF6S0hKMQnsyA2 .labelText>tspan{fill:#000;stroke:none}#mermaid-svg-36HF6S0hKMQnsyA2 .loopText,#mermaid-svg-36HF6S0hKMQnsyA2 .loopText>tspan{fill:#000;stroke:none}#mermaid-svg-36HF6S0hKMQnsyA2 .loopLine{stroke-width:2px;stroke-dasharray:2, 2;stroke:#ccf;fill:#ccf}#mermaid-svg-36HF6S0hKMQnsyA2 .note{stroke:#aa3;fill:#fff5ad}#mermaid-svg-36HF6S0hKMQnsyA2 .noteText,#mermaid-svg-36HF6S0hKMQnsyA2 .noteText>tspan{fill:#000;stroke:none}#mermaid-svg-36HF6S0hKMQnsyA2 .activation0{fill:#f4f4f4;stroke:#666}#mermaid-svg-36HF6S0hKMQnsyA2 .activation1{fill:#f4f4f4;stroke:#666}#mermaid-svg-36HF6S0hKMQnsyA2 .activation2{fill:#f4f4f4;stroke:#666}#mermaid-svg-36HF6S0hKMQnsyA2 .mermaid-main-font{font-family:"trebuchet ms", verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 .section{stroke:none;opacity:0.2}#mermaid-svg-36HF6S0hKMQnsyA2 .section0{fill:rgba(102,102,255,0.49)}#mermaid-svg-36HF6S0hKMQnsyA2 .section2{fill:#fff400}#mermaid-svg-36HF6S0hKMQnsyA2 .section1,#mermaid-svg-36HF6S0hKMQnsyA2 .section3{fill:#fff;opacity:0.2}#mermaid-svg-36HF6S0hKMQnsyA2 .sectionTitle0{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .sectionTitle1{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .sectionTitle2{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .sectionTitle3{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .sectionTitle{text-anchor:start;font-size:11px;text-height:14px;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 .grid .tick{stroke:#d3d3d3;opacity:0.8;shape-rendering:crispEdges}#mermaid-svg-36HF6S0hKMQnsyA2 .grid .tick text{font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 .grid path{stroke-width:0}#mermaid-svg-36HF6S0hKMQnsyA2 .today{fill:none;stroke:red;stroke-width:2px}#mermaid-svg-36HF6S0hKMQnsyA2 .task{stroke-width:2}#mermaid-svg-36HF6S0hKMQnsyA2 .taskText{text-anchor:middle;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 .taskText:not([font-size]){font-size:11px}#mermaid-svg-36HF6S0hKMQnsyA2 .taskTextOutsideRight{fill:#000;text-anchor:start;font-size:11px;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 .taskTextOutsideLeft{fill:#000;text-anchor:end;font-size:11px}#mermaid-svg-36HF6S0hKMQnsyA2 .task.clickable{cursor:pointer}#mermaid-svg-36HF6S0hKMQnsyA2 .taskText.clickable{cursor:pointer;fill:#003163 !important;font-weight:bold}#mermaid-svg-36HF6S0hKMQnsyA2 .taskTextOutsideLeft.clickable{cursor:pointer;fill:#003163 !important;font-weight:bold}#mermaid-svg-36HF6S0hKMQnsyA2 .taskTextOutsideRight.clickable{cursor:pointer;fill:#003163 !important;font-weight:bold}#mermaid-svg-36HF6S0hKMQnsyA2 .taskText0,#mermaid-svg-36HF6S0hKMQnsyA2 .taskText1,#mermaid-svg-36HF6S0hKMQnsyA2 .taskText2,#mermaid-svg-36HF6S0hKMQnsyA2 .taskText3{fill:#fff}#mermaid-svg-36HF6S0hKMQnsyA2 .task0,#mermaid-svg-36HF6S0hKMQnsyA2 .task1,#mermaid-svg-36HF6S0hKMQnsyA2 .task2,#mermaid-svg-36HF6S0hKMQnsyA2 .task3{fill:#8a90dd;stroke:#534fbc}#mermaid-svg-36HF6S0hKMQnsyA2 .taskTextOutside0,#mermaid-svg-36HF6S0hKMQnsyA2 .taskTextOutside2{fill:#000}#mermaid-svg-36HF6S0hKMQnsyA2 .taskTextOutside1,#mermaid-svg-36HF6S0hKMQnsyA2 .taskTextOutside3{fill:#000}#mermaid-svg-36HF6S0hKMQnsyA2 .active0,#mermaid-svg-36HF6S0hKMQnsyA2 .active1,#mermaid-svg-36HF6S0hKMQnsyA2 .active2,#mermaid-svg-36HF6S0hKMQnsyA2 .active3{fill:#bfc7ff;stroke:#534fbc}#mermaid-svg-36HF6S0hKMQnsyA2 .activeText0,#mermaid-svg-36HF6S0hKMQnsyA2 .activeText1,#mermaid-svg-36HF6S0hKMQnsyA2 .activeText2,#mermaid-svg-36HF6S0hKMQnsyA2 .activeText3{fill:#000 !important}#mermaid-svg-36HF6S0hKMQnsyA2 .done0,#mermaid-svg-36HF6S0hKMQnsyA2 .done1,#mermaid-svg-36HF6S0hKMQnsyA2 .done2,#mermaid-svg-36HF6S0hKMQnsyA2 .done3{stroke:grey;fill:#d3d3d3;stroke-width:2}#mermaid-svg-36HF6S0hKMQnsyA2 .doneText0,#mermaid-svg-36HF6S0hKMQnsyA2 .doneText1,#mermaid-svg-36HF6S0hKMQnsyA2 .doneText2,#mermaid-svg-36HF6S0hKMQnsyA2 .doneText3{fill:#000 !important}#mermaid-svg-36HF6S0hKMQnsyA2 .crit0,#mermaid-svg-36HF6S0hKMQnsyA2 .crit1,#mermaid-svg-36HF6S0hKMQnsyA2 .crit2,#mermaid-svg-36HF6S0hKMQnsyA2 .crit3{stroke:#f88;fill:red;stroke-width:2}#mermaid-svg-36HF6S0hKMQnsyA2 .activeCrit0,#mermaid-svg-36HF6S0hKMQnsyA2 .activeCrit1,#mermaid-svg-36HF6S0hKMQnsyA2 .activeCrit2,#mermaid-svg-36HF6S0hKMQnsyA2 .activeCrit3{stroke:#f88;fill:#bfc7ff;stroke-width:2}#mermaid-svg-36HF6S0hKMQnsyA2 .doneCrit0,#mermaid-svg-36HF6S0hKMQnsyA2 .doneCrit1,#mermaid-svg-36HF6S0hKMQnsyA2 .doneCrit2,#mermaid-svg-36HF6S0hKMQnsyA2 .doneCrit3{stroke:#f88;fill:#d3d3d3;stroke-width:2;cursor:pointer;shape-rendering:crispEdges}#mermaid-svg-36HF6S0hKMQnsyA2 .milestone{transform:rotate(45deg) scale(0.8, 0.8)}#mermaid-svg-36HF6S0hKMQnsyA2 .milestoneText{font-style:italic}#mermaid-svg-36HF6S0hKMQnsyA2 .doneCritText0,#mermaid-svg-36HF6S0hKMQnsyA2 .doneCritText1,#mermaid-svg-36HF6S0hKMQnsyA2 .doneCritText2,#mermaid-svg-36HF6S0hKMQnsyA2 .doneCritText3{fill:#000 !important}#mermaid-svg-36HF6S0hKMQnsyA2 .activeCritText0,#mermaid-svg-36HF6S0hKMQnsyA2 .activeCritText1,#mermaid-svg-36HF6S0hKMQnsyA2 .activeCritText2,#mermaid-svg-36HF6S0hKMQnsyA2 .activeCritText3{fill:#000 !important}#mermaid-svg-36HF6S0hKMQnsyA2 .titleText{text-anchor:middle;font-size:18px;fill:#000;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 g.classGroup text{fill:#9370db;stroke:none;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family);font-size:10px}#mermaid-svg-36HF6S0hKMQnsyA2 g.classGroup text .title{font-weight:bolder}#mermaid-svg-36HF6S0hKMQnsyA2 g.clickable{cursor:pointer}#mermaid-svg-36HF6S0hKMQnsyA2 g.classGroup rect{fill:#ECECFF;stroke:#9370db}#mermaid-svg-36HF6S0hKMQnsyA2 g.classGroup line{stroke:#9370db;stroke-width:1}#mermaid-svg-36HF6S0hKMQnsyA2 .classLabel .box{stroke:none;stroke-width:0;fill:#ECECFF;opacity:0.5}#mermaid-svg-36HF6S0hKMQnsyA2 .classLabel .label{fill:#9370db;font-size:10px}#mermaid-svg-36HF6S0hKMQnsyA2 .relation{stroke:#9370db;stroke-width:1;fill:none}#mermaid-svg-36HF6S0hKMQnsyA2 .dashed-line{stroke-dasharray:3}#mermaid-svg-36HF6S0hKMQnsyA2 #compositionStart{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-36HF6S0hKMQnsyA2 #compositionEnd{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-36HF6S0hKMQnsyA2 #aggregationStart{fill:#ECECFF;stroke:#9370db;stroke-width:1}#mermaid-svg-36HF6S0hKMQnsyA2 #aggregationEnd{fill:#ECECFF;stroke:#9370db;stroke-width:1}#mermaid-svg-36HF6S0hKMQnsyA2 #dependencyStart{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-36HF6S0hKMQnsyA2 #dependencyEnd{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-36HF6S0hKMQnsyA2 #extensionStart{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-36HF6S0hKMQnsyA2 #extensionEnd{fill:#9370db;stroke:#9370db;stroke-width:1}#mermaid-svg-36HF6S0hKMQnsyA2 .commit-id,#mermaid-svg-36HF6S0hKMQnsyA2 .commit-msg,#mermaid-svg-36HF6S0hKMQnsyA2 .branch-label{fill:lightgrey;color:lightgrey;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 .pieTitleText{text-anchor:middle;font-size:25px;fill:#000;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 .slice{font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 g.stateGroup text{fill:#9370db;stroke:none;font-size:10px;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 g.stateGroup text{fill:#9370db;fill:#333;stroke:none;font-size:10px}#mermaid-svg-36HF6S0hKMQnsyA2 g.statediagram-cluster .cluster-label text{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 g.stateGroup .state-title{font-weight:bolder;fill:#000}#mermaid-svg-36HF6S0hKMQnsyA2 g.stateGroup rect{fill:#ECECFF;stroke:#9370db}#mermaid-svg-36HF6S0hKMQnsyA2 g.stateGroup line{stroke:#9370db;stroke-width:1}#mermaid-svg-36HF6S0hKMQnsyA2 .transition{stroke:#9370db;stroke-width:1;fill:none}#mermaid-svg-36HF6S0hKMQnsyA2 .stateGroup .composit{fill:white;border-bottom:1px}#mermaid-svg-36HF6S0hKMQnsyA2 .stateGroup .alt-composit{fill:#e0e0e0;border-bottom:1px}#mermaid-svg-36HF6S0hKMQnsyA2 .state-note{stroke:#aa3;fill:#fff5ad}#mermaid-svg-36HF6S0hKMQnsyA2 .state-note text{fill:black;stroke:none;font-size:10px}#mermaid-svg-36HF6S0hKMQnsyA2 .stateLabel .box{stroke:none;stroke-width:0;fill:#ECECFF;opacity:0.7}#mermaid-svg-36HF6S0hKMQnsyA2 .edgeLabel text{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .stateLabel text{fill:#000;font-size:10px;font-weight:bold;font-family:'trebuchet ms', verdana, arial;font-family:var(--mermaid-font-family)}#mermaid-svg-36HF6S0hKMQnsyA2 .node circle.state-start{fill:black;stroke:black}#mermaid-svg-36HF6S0hKMQnsyA2 .node circle.state-end{fill:black;stroke:white;stroke-width:1.5}#mermaid-svg-36HF6S0hKMQnsyA2 #statediagram-barbEnd{fill:#9370db}#mermaid-svg-36HF6S0hKMQnsyA2 .statediagram-cluster rect{fill:#ECECFF;stroke:#9370db;stroke-width:1px}#mermaid-svg-36HF6S0hKMQnsyA2 .statediagram-cluster rect.outer{rx:5px;ry:5px}#mermaid-svg-36HF6S0hKMQnsyA2 .statediagram-state .divider{stroke:#9370db}#mermaid-svg-36HF6S0hKMQnsyA2 .statediagram-state .title-state{rx:5px;ry:5px}#mermaid-svg-36HF6S0hKMQnsyA2 .statediagram-cluster.statediagram-cluster .inner{fill:white}#mermaid-svg-36HF6S0hKMQnsyA2 .statediagram-cluster.statediagram-cluster-alt .inner{fill:#e0e0e0}#mermaid-svg-36HF6S0hKMQnsyA2 .statediagram-cluster .inner{rx:0;ry:0}#mermaid-svg-36HF6S0hKMQnsyA2 .statediagram-state rect.basic{rx:5px;ry:5px}#mermaid-svg-36HF6S0hKMQnsyA2 .statediagram-state rect.divider{stroke-dasharray:10,10;fill:#efefef}#mermaid-svg-36HF6S0hKMQnsyA2 .note-edge{stroke-dasharray:5}#mermaid-svg-36HF6S0hKMQnsyA2 .statediagram-note rect{fill:#fff5ad;stroke:#aa3;stroke-width:1px;rx:0;ry:0}:root{--mermaid-font-family: '"trebuchet ms", verdana, arial';--mermaid-font-family: "Comic Sans MS", "Comic Sans", cursive}#mermaid-svg-36HF6S0hKMQnsyA2 .error-icon{fill:#522}#mermaid-svg-36HF6S0hKMQnsyA2 .error-text{fill:#522;stroke:#522}#mermaid-svg-36HF6S0hKMQnsyA2 .edge-thickness-normal{stroke-width:2px}#mermaid-svg-36HF6S0hKMQnsyA2 .edge-thickness-thick{stroke-width:3.5px}#mermaid-svg-36HF6S0hKMQnsyA2 .edge-pattern-solid{stroke-dasharray:0}#mermaid-svg-36HF6S0hKMQnsyA2 .edge-pattern-dashed{stroke-dasharray:3}#mermaid-svg-36HF6S0hKMQnsyA2 .edge-pattern-dotted{stroke-dasharray:2}#mermaid-svg-36HF6S0hKMQnsyA2 .marker{fill:#333}#mermaid-svg-36HF6S0hKMQnsyA2 .marker.cross{stroke:#333}:root { --mermaid-font-family: "trebuchet ms", verdana, arial;}#mermaid-svg-36HF6S0hKMQnsyA2 {color: rgba(0, 0, 0, 0.75);font: ;}

链接
长方形
圆角长方形
菱形
  • 关于 Mermaid 语法,参考 这儿,

FLowchart流程图

我们依旧会支持flowchart的流程图:

Created with Raphaël 2.3.0开始我的操作确认?结束yesno
  • 关于 Flowchart流程图 语法,参考 这儿.

导出与导入

导出

如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。

导入

如果你想加载一篇你写过的.md文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。


  1. mermaid语法说明 ↩︎

  2. 注脚的解释 ↩︎

图像处理:图像读写基本操作相关推荐

  1. 基础图像处理---图像读写/保存与基础图像绘制框架(纯C代码,不依赖任何第三方库)

    对于初学者要入门图像处理这一行,想必大家都遇到这样的问题: 1,单纯用C/C++语言进行图像处理,苦于各种图像读写保存的库的加载调用,或者说实在不想用MFC,不想用CImage等,但是又没有办法: 2 ...

  2. python做图像处理快不快_Python 图像读写谁最快?不信就比一比

    图像处理,顾名思义,是对图像进行的各种转换.计算等处理.图像处理必不可少地需要读写图像文件. 图像文件的读取,就是将图像数据从磁盘中的文件内读入内存,之后按照图像解码标准解码,最后把图像各像素的值存储 ...

  3. Python数字图像处理---1.1图像的像素格式与图像读写

    目录 前言 图像像素格式 图像读写 前言 本专栏面向所有希望或有兴趣从事数字图像处理工作.学习或研究的朋友,编程语言采用了当下最火的Python语言. Python是一种跨平台的计算机设计语言,也是一 ...

  4. 数字图像处理实验--实验项目一 图像的基本操作和基本运算

    目录 前言 实验项目一 图像的基本操作和基本运算 1.[图像的读取操作] 2 [图像的基本运算] 3[ 图像的几何变换] 4[图像的灰度变换] 前言 数字图像处理(Digital Image Proc ...

  5. C语言数字图像处理---1.1图像的像素格式与图像读写

    前言 本专栏面向所有希望或有兴趣从事数字图像处理工作.学习或研究的朋友,不懂MATLAB和OPENCV没关系,仅需要基础的C语言知识,便可以通过本专栏内容轻松入门数字图像处理方向.目前市面上的数字图像 ...

  6. Python练习 | Python之图像的基本操作和处理

    博主github:https://github.com/MichaelBeechan 博主CSDN:https://blog.csdn.net/u011344545 ***************** ...

  7. aerials标准测试图像_Python 图像读写谁最快?不信就比一比

    图像处理,顾名思义,是对图像进行的各种转换.计算等处理.图像处理必不可少地需要读写图像文件. 图像文件的读取,就是将图像数据从磁盘中的文件内读入内存,之后按照图像解码标准解码,最后把图像各像素的值存储 ...

  8. python opencv 图像切割_【OpenCV+Python】图像的基本操作与算术运算

    图像的基本操作 在上个教程中,我们介绍了使用鼠标画笔的功能.本次教程,我们将要谈及OpenCV图像处理的基本操作. 本次教程的所有操作基本上都和Numpy相关,而不是与OpenCV相关.要使用Open ...

  9. Opencv-Python学习(一)———图像的基本操作

    目录 一.Opencv简介 二.安装Opencv 三.Opencv图像的基本操作 一.Opencv简介 OpenCV是一个基于Apache2.0许可(开源)发行的跨平台计算机视觉和机器学习软件库,可以 ...

最新文章

  1. Android json请求格式与from表单格式
  2. 转帖 开源游戏服务器调研
  3. 比尔.盖茨11点忠告
  4. UNITY调用安桌方法出现 JNI: Init'd AndroidJavaClass with null ptr!
  5. 上下文对象及servletContext接口
  6. flash 遮罩层全解
  7. reactjs DOM的Diffing算法
  8. echarts图表大小随着外部div大小变化
  9. 知乎上这个程序员火了,竟是因为给老板修了一 次U盘
  10. Android官方开发文档Training系列课程中文版:分享文件之分享一个文件
  11. 利用Python+Turtle绘制简易爱心表白小程序
  12. xulrunner下载连接
  13. CloudStack 4.4+KVM之CloudStack配置过程
  14. HTML做成信纸格式,css实现一个写信的格式_html/css_WEB-ITnose
  15. 南京电子地图下载 离线电子地图
  16. 手机号码归属地查询接口大全(七种)
  17. Coreldraw修改平面图独到漂亮见解就在这里了
  18. webp 动画 android,Android加载animated webp的控制和Glide加载GIF
  19. 常用AF对焦算法详解
  20. HarmonyOS应用开发系列课(进阶篇)综合考试参考答案

热门文章

  1. 四十八 停电与打牌(中) 我在软件园的那些日子里
  2. BFS 寻找矩阵中两点之间的最短距离
  3. JVM-13. 垃圾回收器
  4. 《网络攻防》 恶意代码分析
  5. 【c++】——函数的堆栈调用详细过程
  6. 有什么好的论文查重软件?两分钟让你知道
  7. 自己感觉比较不错的美剧(记录自己追剧的岁月)
  8. Vue 使用echarts 地图自定义图标和修改图标样式,点击切换图标
  9. cocos creator 设置开启canvas 透明后 半透明图片 不正常的 官方解决办法
  10. 摄影的工作原理:相机,镜头等