摘要·

眼诊图像信息之心区信息识别,采用UltralyticsLLC 公司公开发布的YOLO v5算法来识别中医眼诊中的内眦血络。现代医学技术逐渐数字化、信息化和智能化符合在信息化时代的背景下的一名学科,而作为中国传统优秀文化的中医也能在智能化的现在熠熠生辉。因此基于YOLO v5的眼诊图像信息之心区信息识别是结合传统医学与现代计算机技术的一个课题,对我国传统文化的复兴有着深远的意义,课题的目的也在于为我国传统优秀文化赋能。最终实现的效果基本能满足中医眼诊的需求。

关键词:中医眼诊,深度学习,人眼部位识别,Python ,YOLOv5

The Heart Region Information Recognition of Eye Diagnosis Image Information

Abstract

The YOLO v5 algorithm published by UltralyticsLLC is used to identify the two canthal blood collaterals in ophthalmology of traditional Chinese medicine. The gradual digitization, informatization and intellectualization of modern medical technology are in line with a discipline under the background of the information age, and traditional Chinese medicine, as an excellent traditional Chinese culture, can also shine in the intelligent era. Therefore, the combination of traditional medical information technology and traditional medical information technology is of far-reaching significance to the revival of Chinese traditional medical information V5 area. The final effect can basically meet the needs of traditional Chinese medicine eye diagnosis.

Keywords: Traditional Chinese Medicine eye Diagnosis, Deep Learning, Human eye Recognition, Python, YOLO v5

目录

1 前言

1.1 眼诊背景

1.2 人工智能技术发展背景

1.3课题研究的意义与目的

2 眼诊的算法实现

2.1 研究对象

2.2 研究所用框架与技术

2.3 技术方案

3 训练集与权重因子

3.1 训练集

3.2 训练权重因子

4. 测试集与测试实验

4.1 测试集

4.2 测试结果

5 实验结果与分析

5.1 实验结果

5.2 实验结果分析

5.3 实验优化预想

6 结语

附录

参考文献

致谢

1 前言

  1.  眼诊背景

在讨论本文课题眼诊图像信息之心区信息识别之前,先看一下本文中“心区”的由来,心区是基于“五轮学说”是根据五行观点,将眼睛分为内轮、水轮、气轮、风轮和血轮五个部分,并配属一定的脏腑,借以说明眼的生理、病理机制,指导临床诊断、治疗等。该学说起源于《黄帝内经》中的“五脏六腑之精气, 皆上注于目而为之精。精之窠为眼, 骨之精为瞳子筋之精为黑眼, 血之精为络, 其窠气之精为眼 ……”[1]

冯因克,邹纯朴的论著眼科五轮学说在中医临床辨证中的应用[2]中有论证了五轮与脏器之间的关系,通过观察眼睛的各个区域可以通过经验判断各个脏器之间的关系。除了五轮学说之外还有八廓学说,同样有着对于眼诊的理论研究。相关论文有诸如:谢立科基于五轮八廓学说疏肝养阴法治疗干眼[3]和八廓学说在肺系疾病应用浅谈[4]等。

而在本文之中的将在内眦、眼白、瞳孔、瞳孔外圈和瞳孔外圈以外的区域分别称之为心区、肺区、肾区、脾区和肝区。也是对应着我们的脏器名称。

正在上传…重新上传取消

图1-1 眼部示意图

在中医的发展历史上对于眼诊的论著仍有着不断的学者的加入,未来的潜力无可限量,正如钱学森先生对于中医的看法“我们要搞的中医现代化,是中医的未来化,也就是二十一世纪我们要实现的一次科学革命,是地地道道的尖端科学”。本文论述的正是与中医相关的眼诊心区的识别,相信在计算机的赋能之下,眼诊、甚至是中医都能在不久的将来发挥着其独有的作用。

而本文题目所探索的眼诊图像信息之心区信息识别中的“心区”对应着五轮学说中的血轮以下简称心区。

1.2 人工智能技术发展背景

YOLO(You Only Live Once)是一款基于深度学习(DeepLearning,DL)的目标检测(Object Detection)算法,而DL又属于人工智能(Artificial Intelligence)领域也就是我们常说的AI,自1956年正式提出到现在2022年已经有了66年的历史了,如果说前三次工业革命主要是扩展了我们的四肢功能,那么AI的就是扩展人脑的功能。而DL是属于机器学习(Machine Learning)的一个分支,它除了可以学习特征和任务之间的关联以外,还能自动从简单特征中提取一些相对而言更加复杂的特征。2012年以后,DL的热度呈指数上升,DL最具代表性的一类方法是深度神经网络,神经网络试图模拟大脑神经元层的活动,以学习如何识别数据中的复杂模式。DL的前身为人工神经网络(ArTIficialNeuralNetwork,ANN),ANN的历史可以追溯到上世纪50年代。目前DL最成熟的技术本质上依然是人工神经网络。

目标检测从传统的Viola Jones检测器、HOG检测器、基于可变形部件的模型(DPM)。而在DL的时代目标检测又出现了双级检测(two-stage detection)和单级检测(one-stage detection)。从图1-2中可以看到深度学习算法经历了哪些更新迭代,从最经典的R-CNN到本文所用到的YOLOv5。

图1-2来自Deep Learning for Generic Object Detection: A Survey[5]

正在上传…重新上传取消

图1-2 深度学习各大经典算法

本文是对YOLOv5的探索,这是也是属于单级检测的DL算法,同时也是当下开源的比较热门的算法之一,相应的论著有基于 YOLO 深度卷积神经网络的复杂背景下机器人采摘苹果定位[6]、改进YOLOv5的苹果花生长状态检测方法[7] 和基于YOLOv5的舰船目标及关键部位检测算法[8]等

随着AI的发展,人们的科学研究、生活和安防等的效率都有了极大的提高。在医学领域,西方医学在AI与医学融合这方面遍地开花,各种先进的算法应用都涌现出来。而YOLO是属于DL中视觉领域的目标检测,目标检测算法图1-2是1998年到2018年的目标检测相关刊物发表的数量直方图可以看到是一个向上的趋势。

正在上传…重新上传取消

图1-2 目标检测相关刊物发表

1.3课题研究的意义与目的

在医学领域,我国的中医有大量的论著与积累,在高新技术的现在,西方医学越来越精确的情况之下中医的生存空间逐渐被挤压,要培养一名合格的中医医生需要大量的时间积累。在当今的社会环境之下,短时间没有收益的行业已经逐渐没落。作为一名本科生享受着前人对现在社会进步实现了的科技成果,身为后人,对复兴中国传统文化,我们义不容辞。从实用角度上来说中医需要大量的时间来积累经验,而计算机技术下的AI眼诊可以克服人类身上的一系列缺陷,拥有一些人类所欠缺的优点:

  1. 计算机只要人类文明不断理论上生命无限;
  2. 计算机只要电力充足可以一天24小时不间断工作;
  3. 计算机擅长做重复性的劳动,这对人类来说价值很低;
  4. 计算机可以做到没有情感,任劳任怨,人类的主观性可能会搞砸一件很简单的事情并且大部分人类的情绪是不可控的。

在蒋莉娅的基于河图洛书后天八卦图浅析眼针之观眼诊病[9] 中对于眼部这边的诊断。基于眼科五轮八廓学说分析眼针之观眼诊病中的对于眼部的解析可以看到眼部识别中的眼诊在中医角度是可行的,具有现实依据。也有很多比较新的有关计算机视觉的研究,如面向非结构环境的柑桔图像分割聚类方法[10] 、复杂场景下基于YOLOv5的口罩佩戴实时检测算法研究[11]

而现在正值人工智能趋势的大爆发,结合国学中医的AI眼诊更具有学术价值和现实意义。把计算机技术作为辅助,提高和拓展中医的触角,进一步提升中医诊断的自动化和效益,更好地发挥中医的优势,这对中医的发展也具有深远的意义

2 眼诊的算法实现

2.1 研究对象

观眼识病在我国古代就有历史记载,在汉代的《内经》就有对眼诊的描述,如《灵枢·大惑论》记载:“目者,心之使也。”,“五脏六腑之精气,皆上注于目而为之精。”在中医中就有论著说明了眼睛的特定部位对应着人体的一些器官,这些信息对于AI来说具有重要的价值,该书还将眼的不同部位分属于五脏,也就是后代医家沿用的五轮学说,即两眦血络属心(血轮),白珠属肺(气轮);黑珠属肝(风轮);瞳仁属肾(水轮);眼泡属脾(肉轮)。因此根据眼睛不同部位的颜色和形态的变化,可以诊察不同的疾病。

而本文只研究血轮(以下简称心区)如下图2-1所示:

正在上传…重新上传取消

图 2-1人眼心区位置

2.2 研究所用框架与技术

在当今互联网上实现对人眼的识别的方法是多种多样的,在开发语言上有Python、C++和Java等。现阶段用于深度学习的语言最主流是Python,Python在AI方面的领域是运用最多的。Python常用的深度学习框架有Theano、TensorFlow和PyTorch等。本文采用的是基于Python的PyTorch框架,它是从Lua的Torch库到Python的松散端口,由于它由Facebook的人工智能研究团队(ArtificiaUntelligence Research team (FAIR))支持且它可以用于处理动态计算图。使用该框架是因为相对于TensorFlow等其它语言来说更加简单,并且YOLO v5是运用PyTorch框架的项目,这也是课题所用到的学习框架。

YOLO v5 是 UltralyticsLLC 公司于 2020年6月9日公开发布的。YOLOv5 模型是基于YOLO v3模型基础上改进而来,发展到现在YOLO v5 发布到现在已经有v6.1版本了,而且在GitHub上的贡献开发者共236人或组织。该算法继承自YOLO v3,在此基础上增加了很多图片增强技术以及优化了骨架网络,YOLO v5在现阶段有非常多的应用实践,对于本课题中的眼诊图像信息之心区信息识别YOLO v5是一个不错的选择。

本文所用的眼诊算法YOLO v5采用了Python语言进行编程,Python是一种解释型的交互式和面向对象的脚本语言,它的设计哲学是“优雅”、“明确”、“简单”而这也说明了Python的特点是简单、和高可读性的。

在编译开发环境中我选择PyCharm 这是一种Python的IDE(Integrated Development Environment),它带有一整套可以帮助用户在使用Python语言开发时提高其效率的工具,比如调试、语法高亮、项目管理、代码跳转、智能提示、自动完成、单元测试、版本控制。  在运行YOLO v5前需要安装一些依赖包,即开发环境具体配置如表2-1:

表2-1 软件环境与包版本

环境包名

版本

Python解释器

Python-3.9.7

Pytorch 框架

Pytorch-1.11.0

Opencv

Opencv-python-4.5.5.64

YOLO v5

YOLOv5-6.1

cuda

NVDIA CUDA 11.6

Matplotlib

Matplotlib-3.4.3

Numpy

Numpy-1.20.3

Pillow

Pillow-8.4.0

PyYAML

Pyyaml-6.0

Requests

Requests-2.26.0

Scipy

Scipy-1.7.1

tqdm

Tqdm-4.62.3

tensorboard

Tensorboard-2.8.0

pandas

Pandas-1.3.4

seaborn

Seaborn-0.11.2

在功能实现的过程中考虑到硬件对程序的影响,因此将其列出以供参考:

在本文中所用到电脑硬件配置表2-2:

表2-2 电脑硬件配置

华硕笔记本F441U

CPU

IntelR  CoreTM  i5-7200U CPU @ 2.50GHz

GPU

NVIDIA GeForce 920MX (2G)

系统硬盘

Colorful SL500 256GB

2.3 技术方案

本文才用的技术方案为基于Python与pytorch深度学习框架下的YOLO v5,并用YOLOv5算法来实现对研究对象眼部心区的识别。YOLO v5在Github上的代码开源链在这里[12]。运行算法之前需要先选择一个合适的模型,YOLO v5的作者给出了表2-3是当前(v6.1)官网贴出的关于不同大小模型以及输入尺度对应的mAP、推理速度、参数数量以及理论计算量FLOPs。[12]

表2-3模型参数

Model

size

(pixels)

mAPval

0.5:0.95

mAPval

0.5

Speed

CPU b1

(ms)

Speed

V100 b1

(ms)

Speed

V100 b32

(ms)

Params

(M)

FLOPs

@640 (B)

YOLOv5n

640

28.0

45.7

45

6.3

0.6

1.9

4.5

YOLOv5s

640

37.4

56.8

98

6.4

0.9

7.2

16.5

YOLOv5m

640

45.4

64.1

224

8.2

1.7

21.2

49.0

YOLOv5l

640

49.0

67.3

430

10.1

2.7

46.5

109.1

YOLOv5x

640

50.7

68.9

766

12.1

4.8

86.7

205.7

YOLOv5n6

1280

36.0

54.4

153

8.1

2.1

3.2

4.6

YOLOv5s6

1280

44.8

63.7

385

8.2

3.6

12.6

16.8

YOLOv5m6

1280

51.3

69.3

887

11.1

6.8

35.7

50.0

YOLOv5l6

1280

53.7

71.3

1784

15.8

10.5

76.8

111.4

YOLOv5x6

+ TTA

1280

1536

55.0

55.8

72.7

72.7

3136

-

26.2

-

19.4

-

140.7

-

209.8

-

通过表格可以看到YOLOv5*6(*为通配符)提供了像素更高的模型,其他不过训练速度会因此与同规模的速度会慢很多如YOLOv5s6与YOLOv5s比CPU那一栏的速度慢了将近4倍,这是因为YOLOv5*6模型不仅像素提高到1280*1280,同时下采样到64倍,采用4个预测特征层而YOLOv5*模型只会下采样到32倍且采用3个预测特征层。因此在不考虑YOLOv5*6模型的情况下选择对比其他5种模型,包括YOLO v5n、YOLO v5s、YOLO v5m、YOLO v5l 和 YOLO v5x,模型的区别是通过调节深度倍数(depth_multiple)和宽度倍数(width_multiple)两个参数实现的,具体含义如下。

  1. 深度倍数:控制BottleneckCSP数,对应的位置如图2-2。

正在上传…重新上传取消

图2-2 深度倍数影响的位置

  1. 宽度倍数:控制卷积核数量,对应的位置如图2-3。

正在上传…重新上传取消

图2-3 宽度倍数影响位置

我将YOLO v5n、YOLO v5s、YOLO v5m、YOLO v5l 和 YOLO v5x这5种模型的深度倍率与宽度倍率汇总到表2-4。

YOLOv5n

YOLOv5s

YOLOv5m

YOLOv5l

YOLOv5x

depth_multiple

0.33

0.33

0.67

1.0

1.33

width_multiple

0.25

0.50

0.75

1.0

1.25

表2-4 各模型的深度

YOLO v5的网络结构大致有三部分组成,分别为骨架网络(backbone),头部(head),最后是输出(output),在图片输入骨架网络入口之前会先将图片进行处理,也就是图片增强技术,最后将图片缩放成646×640的规格送入骨架网络入口。经过了一系列算法之后会输出三种规格的数据给GPU进行训练,这样训练会有更好的效果能识别更多不同大小的物体。具体示意图如图2-4所示。

正在上传…重新上传取消

图2-4 网络结构

图2-4中大致有这几个模块Conv、C3_xa(x和a为变量)、SPPF、Upasample和Concat。

  1. Conv模块分别由Conv2d、BatchNorm2d和SiLU这三个部分组成如图2-5所示。

正在上传…重新上传取消

图2-5 Conv模块组成

Conv2d也称为卷积层也称之为2D卷积,也就是处理平面相关的卷积函数,卷积层的主要优点是参数共享和稀疏连接,这使得卷积操作所需要学习的参数数量大大减少。卷积常用来提取输入信息的特征,同时具有局部共享,权值共享和平移不变性[13]。对应的公式简化如公式(2-1):

正在上传…重新上传取消                                             (2-1)

BN(BatchNorm2d)应用批归一化即对小批量(mini-batch)数据组成的输入数据进行批标准化(Batch Normalization)操作,通过减少内部协变量偏移来加速深度网络训练,具体公式如公式(2-2)。

正在上传…重新上传取消                                        (2-2)

SiLU激活函数具有无上界有下界、平滑、非单调的特性。相关公式如公式(2-3)下:

正在上传…重新上传取消                                           (2-3)

该图像如图2-6:

正在上传…重新上传取消

图2-6 激活函数SiLU的函数图像

(2)C3_xa模块(“x”为一共有多少BottomNeck,“a”决定BottomNeck的不同形式)如图2-7:

正在上传…重新上传取消

图2-7 C3模块

图中包含了3个不同位置的Conv(卷积层)x个BottomNeck a模块,和一个Concat操作,输入数据首先分为2路一路先进行一次Conv,另一路经过Conv后再进行x次BottomNeck a,最后将两路进行一次Concat操作后再进行一次Conv。

其中BottomNeck a模块有2种形式,BottomNeck 1模块和BottomNeck 2模块具体示意图如图2-8:

正在上传…重新上传取消

图2-8 BottomNeck的两种形式

BottomNeck 1 模块中add为图像特征融合中的相加操作,逻辑为输入数据一路经过2次Conv后再与原输入数据进行相加,而BottomNeck 2只是将输入数据进行了2次不同尺度的Conv,这样做的原因是骨架网络需要有更多深层次的东西且已经完成了主要特征信息的提取,在骨架网络里面更多的用到了BottomNeck 1 模块,而在头部,不需要再加深网络了这样会增加训练的负担,所以才用 BottomNeck 2模块。

(3)YOLO v5里面的特征融合有两种操作模式Concat(拼接)与add(相加)。

具体实现方式如图2-9:

正在上传…重新上传取消

图2-9 Concat于add的示意图

(4)而SPPF结构是将输入串行通过3个5x5大小的MaxPool层(最大池化层)具体示意图如图2-10:

正在上传…重新上传取消

图2-10 SPPF模块

SPPF模块是从输入数据后将数据经过Conv的数据、与经过Conv、和1,2,3次MaxPool2d模块的数据,共4个数据进行一次Concat拼接并且进行一次卷积之后输出。

其中的MaxPool2d的过程示意图如图2-11:

正在上传…重新上传取消

图2-11 MaxPool2d示意图

(5)Upsample 采用的上采样方法是最邻近元法(Nearest Neighbour Interpolation),最邻近元法计算量较小,但可能会造成插值生成的图像灰度上的不连续,在灰度变化的地方可能出现明显的锯齿状。当图片放大时,缺少的像素通过直接使用与之最接近的原有的像素的颜色生成,也就是说照搬旁边的像素,这样做的结果是产生了明显可见的锯齿,这种方法的示意图如图2-12:

正在上传…重新上传取消

图2-12 上采样方式示意图

3 训练集与权重因子

3.1 训练集

YOLO v5是分类目标检测算法,但是在本文中我们的识别类数只有一类,也就是眼心(eye_hear),在材料获取上采用584张图片作为训练的材料,其中包括16张单眼检测,211张带眼镜人脸,307张不带眼镜人脸作为训练目标,通过一些标签工具打上标签,打完标签后的效果其中一部分如图3-1所示:

正在上传…重新上传取消

图3-1 数据集与标签

每一张图片都有对应的标签(label),标签的内容是将框图框选出来的是属于哪一类,并且处于图片相对位置的哪里,图3-2是其中一张图片的标签内容。

正在上传…重新上传取消

图3-2 标签内容

图3-2中有十个数据其中每一行代表一个目标,每个目标有五个数据,第一个数据是类别编号,也就是对应eye_hear这个标签另外4个数据分别表示中心横坐标与图像宽度的比值、中心纵坐标与图像宽度的比值、检测框宽度与图像宽度的比值和检测框高度与图像高度的比值。我将图片和label的第一个目标用Python进行转换,如果要框出一个矩形框只需要知道矩形框的对角的两个点就可以了,我们这里假设5个数据中第二到第四个数据分别为x,y,w,h。假设我们框的两个坐标点为(x1,y1)、(x2,y2),图片的宽高为width,高为height。

通过公式(3-1)、(3-2)、(3-3)和(3-4)得到x1、x2、y1和y2的值后通过python的opencv包将框在图片中绘制出来得到图3-3:

正在上传…重新上传取消                                (3-1)

正在上传…重新上传取消                                (3-2)

正在上传…重新上传取消                              (3-3)

正在上传…重新上传取消                               (3-4)

正在上传…重新上传取消

图3-3 标签与图片

3.2 训练权重因子

在训练图片之前需要先设置一些参数以适配电脑硬件配置,以让训练达到我所理想的条件,具体比较重要的配置内容有:

(1)每次神经训练的图片数(batch-size)

首先需要先测试一下GPU显存大小能承受多大的batch-size。通过多次测试发现当batch-size=5的时候刚好能跑满我的GPU,为了最大化训练速度,我选取了batch-size=5这个参数进行模型训练。

(2)训练好的网络模型路径(weights)

由于我所需要的训练模型没有可参考的所以需要重头开始训练因此此处为‘’即不填。

(3)数据集迭代次数(epochs)

通过查询一些资料发现在coco数据集中选择模型为yolov5s时当迭代次数在300的时候,效果是最好的,而超过会出现过拟合的情况,虽然现在的YOLOv5会保存最优的一次训练结果,但是这样的训练会浪费很多计算机资源,由于本人没有测试迭代次数是否过拟合的数据因此参考coco数据集的最优迭代次数来作为本次实验的迭代次数,训练后的效果比较理想。

(4)网络结构(cfg)

结合我的硬件设备我选用的是YOLO v5s这种结构,该结构在满足我硬件配置的同时也提升了训练速度。因此我选择的是yolov5s.yaml这个模型。

(5)选择GPU或CPU的号数(device)

我有一张可训练的GPU显卡所以此处填0。

(6)训练数据路径与物体类的配置文件路径(data)

我将我所需要训练的数据整理好,以及所需要的检测的类的个数,和类的名称设置好了之后放入mydata.yaml里面,因此这里填mydata.yaml。

4. 测试集与测试实验

4.1 测试集

测试集上我挑选了3张图片、分别为带眼镜图片、不带眼镜图片和单眼图片,如图4-1:

正在上传…重新上传取消

图4-1 测试图片

4.2 测试结果

需要配置以下参数。

  1. 训练好了的模型路径(weights)

我这里选用训练集训练完成后的训练结果模型best.pt。文件进行训练

  1. 需要测试的图片路径(source)

三张图片的存放位置。

  1. 自己的数据集模型路径(data)

同训练集选用mydata.yaml。

  1. 置信度显示阈值(conf-thres)

设置为0.25。

  1. 图像重合度(iou-thres)

设置为0.45。

配置完成后开始测试实验,测试完成后的结果如图4-2所示:

正在上传…重新上传取消

图4-2测试结果

5 实验结果与分析

5.1 实验结果

配置参数选用与测试集相同,配置完成之后我选了16张图片数据进入训练训练效果如图5-1所示:

正在上传…重新上传取消

图 3-3 训练效果

从训练结果中可以看到其中2行4列、3行2列、4行2列和4行4列几张图片只测到了一只眼的心区,从肉眼看确实观察不到心区的位置,因此满足90%以上的检测到了眼部心区的位置,检测成功数29,一共肉眼能分辨的心区29。训练结果符合预期,置信度符合预期。

5.2 实验结果分析

在我的电脑上进行584张图片的训练一共历时3天,之后在对单眼图进行测试的时候发现实验的置信度不符合预期,如果采用不同人种的图片进行实验发现实验的置信度也会下降,当整体的实验结果符合预期,达到人眼图像信息之心区信息识别的需求。

5.3 实验优化预想

我的电脑性能可提升空间大,在提高电脑性能时可训练大量的图片数据集同时实现的时间大幅缩短,在训练时增多图片人种的多样性、复杂性和实时性。YOLO v5是可以边使用边训练的,在本次实验的基础上在实际使用的过程中采集数据并进行二次训练,可以提高训练模型的精确度和置信度。在数据充足的情况下可以识别眼部心区是否不健康。

6 结语

为了结合传统文化与新兴科技,本文提出了一种基于YOLO v5可以用于眼诊中识别人眼心区。中医中有一种概念就是望闻问切[14],而望作为一种比较重要的形式,一开始想如果能用AI视觉识别的方法实现的话,那对于中医治疗来说无疑是一种很好的辅助手段。由此有了这个想法,市面上也有很多的计算机算法。而选择YOLO v5的原有。一是YOLO v5是一种工程实践的结果,作者还没有发表论文。二是YOLO v5 比起市面上的一些其他计算机识别类的更简单和有效,而且作者仍在更新和维护,最新的版本更新到了6.1。三是运用的人数也很多,有更多的例程可供学习。

在论文写作期间我也关注了一下中医的医疗器械到底有哪些,在百度百科[15]上找到的在表6-1:

表6-1 中医的部分医疗器械

名 称

品 名 举 例

诊断仪器

中医专家系统、脉象仪、舌相仪、痛阈测量仪、经络分析仪

治疗仪器

电子穴位测定治疗仪、综合电针仪、电麻仪、定量针麻仪、探穴针麻机穴位测试仪、耳穴探测治疗机

中医器具

针灸针、小针刀、三棱针、梅花针

这些装备都是工业时代留些的产物,而随着科技的进步,人已经步入到了信息化,数字化,智能化的时代,而传统的中医医疗器械在现在的时代下,显得有点经典了。所以本文提出用YOLO v5来处理AI眼诊,并提出对中医的眼诊中对眼部心区的识别。同时在可预见的未来相信中医也能跟上时代的脚步,让先人的智慧得以继续发光发热。

附录

YOLOv5的跨框架的模型中间表达框架(Open Neural Network Exchange,onnx),onnx就便于了我们的算法及模型在不同的框架之间的迁移,同时也能生成一个模型的训练流程图可以看到图像经历了哪些算法。

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

正在上传…重新上传取消

参考文献

  1. 黄帝内经[M].北京:人民卫生出版社, 1963.
  2. 冯因克,邹纯朴.眼科五轮学说在中医临床辨证中的应用[J].中国医药导报,2014,11(03):101-104.
  3. 祁怡馨,谢立科,郝晓凤等.谢立科基于五轮八廓学说疏肝养阴法治疗干眼[J].实用中医内科杂志,2021,35(07):46+143.
  4. 常璐,周海兵,蹇文渊.八廓学说在肺系疾病应用浅谈[J].中医眼耳鼻喉杂志,2020,10(03):121-123.
  5. Li Liu, Wanli Ouyang, Xiaogang Wang, etc.Deep Learning for Generic Object Detection: A Survey[OL].(2018-09-06)[2019-08-22]. https://arxiv.org/abs/1809.02165
  6. 赵德安,吴任迪,刘晓洋等.基于YOLO深度卷积神经网络的复杂背景下机器人采摘苹果定位[J].农业工程学报,2019,35(03):164-173.
  7. 杨其晟,李文宽,杨晓峰等.改进YOLOv5的苹果花生长状态检测方法[J].计算机工程与应用,2022,58(04):237-246.
  8. 钱坤,李晨瑄,陈美杉等.基于YOLOv5的舰船目标及关键部位检测算法[J/OL].系统工程与电子技术:1-14[2022-05-17].http://kns.cnki.net/kcms/detail/11.2422.TN.20220119.1436.011.html
  9. 蒋莉娅.基于河图洛书后天八卦图浅析眼针之观眼诊病[J].中华中医药杂志,2018,33(10):4426-4428.
  10. 冯麒燊,李洋鹏,陈芝源等.面向非结构环境的柑桔图像分割聚类方法[J].福建电脑,2021,37(08):12-14.DOI:10.16707/j.cnki.fjpc.2021.08.004.
  11. 于硕,李慧,桂方俊等.复杂场景下基于YOLOv5的口罩佩戴实时检测算法研究[J].计算机测量与控制,2021,29(12):188-194.DOI:10.16526/j.cnki.11-4762/tp.2021.12.035.
  12. Glenn Jocher.yolov5[OL].(2020-06-26)[2022-02-22].GitHub - ultralytics/yolov5: YOLOv5

    基于YOLO v5 的AI眼诊相关推荐

    1. 二十. 在ROS系统上实现基于PyTorch YOLO v5的实时物体检测

      一. 背景介绍 在我前面的博文 十八.在JetsonNano上为基于PyTorch的物体检测网络测速和选型 中,我介绍过在基于Jetson Nano硬件平台和Ubuntu 18.04 with Jet ...

    2. 【目标检测】YOLO v5 吸烟行为识别检测

      提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 YOLO v5 吸烟行为目标检测模型:计算机配置.制作数据集.训练.结果分析和使用 前言 相关连接(look评论) 一.计算机配置 p ...

    3. 【目标检测】YOLO v5 安全帽检测识别项目模型

      提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 YOLO v5安全帽检测模型 前言 相关连接: 一.计算机配置 pytorch安装 pycocotools的安装 二.YOLO v5下 ...

    4. 【超级视客营】基于超算平台的MMYOLO实践过程记录(自定义数据集实现YOLO v5)

      上一篇博文我们搭建好了超算平台对MMYOLO编译环境,并通过单张图片加载训练好的模型进行推理.本篇文章参考MMYOLO官方发布的自定义数据集 标注+训练+测试+部署 全流程文档,进一步在超算平台中实现 ...

    5. 【深度学习】用 YOLO v5+DeepSORT,打造实时多目标跟踪模型

      内容概要:目标跟踪作为一个非常有前景的研究方向,常常因为场景复杂导致目标跟丢的情况发生.本文按照跟踪目标数量的差异,分别介绍了单目标跟踪及多目标跟踪. 关键词:目标跟踪   计算机视觉    教程 目 ...

    6. 用 YOLO v5+DeepSORT,打造实时多目标跟踪模型

      内容概要:目标跟踪作为一个非常有前景的研究方向,常常因为场景复杂导致目标跟丢的情况发生.本文按照跟踪目标数量的差异,分别介绍了单目标跟踪及多目标跟踪. 目标跟踪 (Object Tracking) 是 ...

    7. YOLO v5 引入解耦头部

      YOLO v5 引入解耦头部 文章目录 YOLO v5 引入解耦头部 前言 一.解耦头部示意图 二.在YOLO v5 中引入解耦头部 1.修改common.py文件 2.修改yolo.py文件 3.修 ...

    8. 目标检测模型——One stage(YOLO v5的模型解析及应用)

      1. 简介 目标检测分为Two stage和One stage,只使用一个网络同时产生候选区域并预测出物体的类别和位置,所以它们通常被叫做单阶段检测算法(One stage).本篇文章只讲One st ...

    9. 基于改进PSGAN的AI自动美颜化妆系统(源码&教程)

      1.研究背景 在计算机视觉领域,基于人脸图像的合成与分析一直是热门的研究课题.人脸表情合成在影视娱乐.人工智能产业应用广泛,自动化妆技术在美妆行业有着巨大的应用前景.虽然人脸图像合成技术在近几年得到了 ...

    10. 简述yolo1-yolo3_YOLO v4或YOLO v5或PP-YOLO?

      简述yolo1-yolo3 Object detection is a computer vision task that involves predicting the presence of on ...

    最新文章

    1. [转]MD5(1)-安全性与原理
    2. 对象存储/编码/解码
    3. python封装方法有几种_python之--------封装
    4. C语言 读取txt文档按行读取到新的txt文档
    5. hdu 4666 Hyperspace
    6. 【JDBC】Eclipse连接Mysql
    7. 前端学习(1701):前端系列javascript之闭包
    8. linux基本命令以及命令常用选项
    9. SpringBoot指南(七)——SpringBoot整合Mybatis
    10. c#压缩解压缩bzip2、tar、zip、gzip、deflate、ntdll
    11. c语言 随机漫步,随机漫步理论
    12. 拓端tecdat|R语言时间序列GARCH模型分析股市波动率
    13. Py下载指定路径下所有图片
    14. 数学建模论文分析--2015A高教社杯--太阳影子定位的多目标优化模型
    15. 专访Nick McKeown:网络领域的游戏颠覆者
    16. ADNI数据集下载方法(完全步骤)
    17. LINUX 下查看设备状态的常用命令
    18. 1125:矩阵乘法(C C++)
    19. iOS循环引用问题集合、内存泄漏、僵尸对象、代码静态分析
    20. 机器学习——Matplotlib入门教程

    热门文章

    1. win7查看计算机设置密码,如何查看win7电脑开机密码_win7专业版电脑开机密码怎么查看...
    2. ESXI安装部署方法
    3. 堆积柱形图显示总数_excel堆积柱形图如何显示总数
    4. acwing-提高课
    5. C语言符号优先级速查
    6. Warshall算法 (解决传递闭包问题)
    7. 二阶有源低通滤波电路的设计与分析
    8. 网页保存为pdf神器(可自定义编辑)—Print Edit WE
    9. 多路增广 Dinic算法
    10. AR8035芯片手册 解析|CSDN创作打卡