• 一、KD树基本解释

    • 1.1、基础概念
    • 1.2、什么是KD树
    • 1.3、KD树的构建
      • 1.3.1、算法的实现
      • 1.3.2、构造代码部分
      • 1.3.2、具体步骤
  • 二、KD树基本操作
    • 2.1、KD树查找
    • 2.2、查找代码实现
    • 2.3、KD树的插入
    • 2.4、KD树的删除
  • 三、算法改进:BBF
  • 四、VP树与MVP树简介

K最近邻算法链接,点击这里,我们直接来了解有关Kd树的知识点

一、KD树基本解释

1.1、基础概念

~~~~~~~~ 特征点匹配和数据库查、图像检索本质上是同一个问题,都可以归结为一个通过距离函数在高维矢量之间进行相似性检索的问题,如何快速而准确地找到查询点的近邻。
        ~~~~~~~~ 一般说来,索引结构中相似性查询有两种基本的方式:
● 一种是范围查询,范围查询时给定查询点和查询距离阈值,从数据集中查找所有与查询点距离小于阈值的数据
● 另一种是K近邻查询,就是给定查询点及正整数K,从数据集中找到距离查询点最近的K个数据,当K=1时,它就是最近邻查询。

同样,针对特征点匹配也有两种方法:

~~~~~~~~ 最容易的办法就是线性扫描,也就是我们常说的穷举搜索,依次计算样本集E中每个样本到输入实例点的距离,然后抽取出计算出来的最小距离的点即为最近邻点。此种办法简单直白,但当样本集或训练集很大时,它的缺点就立马暴露出来了,举个例子,在物体识别的问题中,可能有数千个甚至数万个SIFT特征点,而去计算这成千上万的特征点与输入实例点的距离,明显是不足取的。
        ~~~~~~~~ 另外一种,就是构建数据索引,因为实际数据一般都会呈现簇状的聚类形态,因此我们想到建立数据索引,然后再进行快速匹配。索引树是一种树结构索引方法,其基本思想是对搜索空间进行层次划分。根据划分的空间是否有混叠可以分为Clipping和Overlapping两种。前者划分空间没有重叠,其代表就是k-d树;后者划分空间相互有交叠,其代表为R树
        ~~~~~~~~如下图形式的把空间划分为多个部分的k-d树。
                        ~~~~~~~~~~~~~~~~~~~~~~~~

1.2、什么是KD树

~~~~~~~~Kd-树就是一种平衡二叉树k-d树是一种空间划分树,说白了,就是把整个空间划分为特定的几个部分,然后在特定空间的部分内进行相关搜索操作。
                                 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

1.3、KD树的构建

下表表示的是Kd-树中每个节点中主要包含的数据结构:

域名 数据类型 描述
Node-data 数据矢量 数据集中某个数点,是n维矢量(这里也就是k维)
Range 空间矢量 该节点所代表的空间范围
split 整数 垂直于分割超平面的方向轴序号
Left k-d树 由位于该节点分割超平面左子空间内所有数据点所构成的k-d树
Right k-d树 由位于该节点分割超平面右子空间内所有数据点所构成的k-d树
parent k-d树 父节点

● Range域表示的是节点包含的空间范围。
● Node-data域就是数据集中的某一个n维数据点。分割超面是通过数据点Node-Data并垂直于轴
● split的平面,分割超面将整个空间分割成两个子空间。
● 令split域的值为i,如果空间Range中某个数据点的第i维数据小于Node-Data[i],那么,它就属于该节点空间的左子空间,否则就属于右子空间。
● Left,Right域分别表示由左子空间和右子空间空的数据点构成的Kd-树。

从上面对k-d树节点的数据类型的描述可以看出构建k-d树是一个逐级展开的递归过程。下面的代码构建了kd树,通过前序遍历可以进行验证。

1.3.1、算法的实现

输入:数据点集Data-set和其所在的空间Range
输出:Kd,类型为k-d tree
1、If Data-set为空,则返回空的k-d tree

2、调用节点生成程序:
          ~~~~~~~~~~(1)确定split域:对于所有描述子数据(特征矢量),统计它们在每个维上的数据方差。以SURF特征为例,描述子为64维,可计算64个方差。挑选出最大值,对应的维就是split域的值。数据方差大表明沿该坐标轴方向上的数据分散得比较开,在这个方向上进行数据分割有较好的分辨率;
          ~~~~~~~~~~(2)确定Node-data域:数据点集Data-set按其第split域的值排序。位于正中间的那个数据点被选为Node-data。此时新的Data-set’ = Data-set\Node-data(除去其中Node-data这一点)。

3、dataleft = {d属于Data-set’ && d[split] ≤ Node-data[split]}Left_Range = {Range && dataleft} dataright = {d属于Data-set’ && d[split] > Node-data[split]}Right_Range = {Range && dataright}

4.、eft = 由(dataleft,Left_Range)建立的k-d tree,即递归调用createKDTree(dataleft,Left_Range)。并设置left的parent域为Kd;right = 由(dataright,Right_Range)建立的k-d tree,即调用createKDTree(dataright,Right_Range)。并设置right的parent域为Kd。

1.3.2、构造代码部分
# -*- coding: utf-8 -*-
#from operator import itemgetter
import sys
reload(sys)
sys.setdefaultencoding('utf8')# kd-tree每个结点中主要包含的数据结构如下
class KdNode(object):def __init__(self, dom_elt, split, left, right):self.dom_elt = dom_elt  # k维向量节点(k维空间中的一个样本点)self.split = split      # 整数(进行分割维度的序号)self.left = left        # 该结点分割超平面左子空间构成的kd-treeself.right = right      # 该结点分割超平面右子空间构成的kd-treeclass KdTree(object):def __init__(self, data):k = len(data[0])  # 数据维度def CreateNode(split, data_set): # 按第split维划分数据集exset创建KdNodeif not data_set:    # 数据集为空return None# key参数的值为一个函数,此函数只有一个参数且返回一个值用来进行比较# operator模块提供的itemgetter函数用于获取对象的哪些维的数据,参数为需要获取的数据在对象中的序号#data_set.sort(key=itemgetter(split)) # 按要进行分割的那一维数据排序data_set.sort(key=lambda x: x[split])split_pos = len(data_set) // 2      # //为Python中的整数除法median = data_set[split_pos]        # 中位数分割点             split_next = (split + 1) % k        # cycle coordinates# 递归的创建kd树return KdNode(median, split, CreateNode(split_next, data_set[:split_pos]),     # 创建左子树CreateNode(split_next, data_set[split_pos + 1:])) # 创建右子树self.root = CreateNode(0, data)         # 从第0维分量开始构建kd树,返回根节点# KDTree的前序遍历
def preorder(root):  print root.dom_elt  if root.left:      # 节点不为空preorder(root.left)  if root.right:  preorder(root.right)  if __name__ == "__main__":data = [[2,3],[5,4],[9,6],[4,7],[8,1],[7,2]]kd = KdTree(data)preorder(kd.root)

~~~~~~~再举一个简单直观的实例来介绍k-d树构建算法。假设有6个二维数据点{(2,3),(5,4),(9,6),(4,7),(8,1),(7,2)},数据点位于二维空间内,如下图所示。为了能有效的找到最近邻,k-d树采用分而治之的思想,即将整个空间划分为几个小部分,首先,粗黑线将空间一分为二,然后在两个子空间中,细黑直线又将整个空间划分为四部分,最后虚黑直线将这四部分进一步划分。

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

1.3.2、具体步骤

~~~~~~~1、确定:split域=x。具体是:6个数据点在x,y维度上的数据方差分别为39,28.63,所以在x轴上方差更大,故split域值为x;
       ~~~~~~~2、确定:Node-data = (7,2)。具体是:根据x维上的值将数据排序,6个数据的中值(所谓中值,即中间大小的值)为7,所以Node-data域位数据点(7,2)。这样,该节点的分割超平面就是通过(7,2)并垂直于:split=x轴的直线x=7;
       ~~~~~~~3、确定:左子空间和右子空间。具体是:分割超平面x=7将整个空间分为两部分:x<=7的部分为左子空间,包含3个节点={(2,3),(5,4),(4,7)};另一部分为右子空间,包含2个节点={(9,6),(8,1)};

~~~~~~~与此同时,经过对上面所示的空间划分之后,我们可以看出,点(7,2)可以为根结点,从根结点出发的两条红粗斜线指向的(5,4)和(9,6)则为根结点的左右子结点,而(2,3),(4,7)则为(5,4)的左右孩子(通过两条细红斜线相连),最后,(8,1)为(9,6)的左孩子(通过细红斜线相连)。如此,便形成了下面这样一棵k-d树:
                               ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

二、KD树基本操作

2.1、KD树查找

KD树的查找算法:
在k-d树中进行数据的查找也是特征匹配的重要环节,其目的是检索在k-d树中与查询点距离最近的数据点。 对于kd树的检索,其具体过程为:
        ~~~~~~~~● 从根节点开始,将待检索的样本划分到对应的区域中(在kd树形结构中,从根节点开始查找,直到叶子节点,将这样的查找序列存储到栈中)

~~~~~~~~● 以栈顶元素与待检索的样本之间的距离作为最短距离min_distance

~~~~~~~~● 执行出栈操作:
        ~~~~~~~~        ~~~~~~~~◆ 向上回溯,查找到父节点,若父节点与待检索样本之间的距离小于当前的最短距离min_distance,则替换当前的最短距离min_distance

~~~~~~~~        ~~~~~~~~◆ 以待检索的样本为圆心(二维,高维情况下是球心),以min_distance为半径画圆,若圆与父节点所在的平面相割,则需要将父节点的另一棵子树进栈,重新执行以上的出栈操作

~~~~~~~~● 直到栈为

举例
        ~~~~~~~~以先前构建好的kd树为例,查找目标点(3,4.5)的最近邻点。同样先进行二叉查找,先从(7,2)查找到(5,4)节点,在进行查找时是由y = 4为分割超平面的,由于查找点为y值为4.5,因此进入右子空间查找到(4,7),形成搜索路径:(7,2)→(5,4)→(4,7),取(4,7)为当前最近邻点。以目标查找点为圆心,目标查找点到当前最近点的距离2.69为半径确定一个红色的圆。然后回溯到(5,4),计算其与查找点之间的距离为2.06,则该结点比当前最近点距目标点更近,以(5,4)为当前最近点。用同样的方法再次确定一个绿色的圆,可见该圆和y = 4超平面相交,所以需要进入(5,4)结点的另一个子空间进行查找。(2,3)结点与目标点距离为1.8,比当前最近点要更近,所以最近邻点更新为(2,3),最近距离更新为1.8,同样可以确定一个蓝色的圆。接着根据规则回退到根结点(7,2),蓝色圆与x=7的超平面不相交,因此不用进入(7,2)的右子空间进行查找。至此,搜索路径回溯完,返回最近邻点(2,3),最近距离1.8。

~~~~~~~~~~~
如果实例点是随机分布的,kd树搜索的平均计算复杂度是O(logN)O(logN),这里N是训练实例数。kd树更适用于训练实例数远大于空间维数时的k近邻搜索。当空间维数接近训练实例数时,它的效率会迅速下降,几乎接近线性扫描。

2.2、查找代码实现

from math import sqrt
from collections import namedtuple
# 定义一个namedtuple,分别存放最近坐标点、最近距离和访问过的节点数
result = namedtuple("Result_tuple", "nearest_point  nearest_dist  nodes_visited")def find_nearest(tree, point):k = len(point) # 数据维度def travel(kd_node, target, max_dist):if kd_node is None:     return result([0] * k, float("inf"), 0) # python中用float("inf")和float("-inf")表示正负无穷nodes_visited = 1s = kd_node.split        # 进行分割的维度pivot = kd_node.dom_elt  # 进行分割的“轴”if target[s] <= pivot[s]:           # 如果目标点第s维小于分割轴的对应值(目标离左子树更近)nearer_node  = kd_node.left     # 下一个访问节点为左子树根节点further_node = kd_node.right    # 同时记录下右子树else:                               # 目标离右子树更近nearer_node  = kd_node.right    # 下一个访问节点为右子树根节点further_node = kd_node.lefttemp1 = travel(nearer_node, target, max_dist)  # 进行遍历找到包含目标点的区域nearest = temp1.nearest_point       # 以此叶结点作为“当前最近点”dist = temp1.nearest_dist           # 更新最近距离nodes_visited += temp1.nodes_visited  if dist < max_dist:     max_dist = dist    # 最近点将在以目标点为球心,max_dist为半径的超球体内temp_dist = abs(pivot[s] - target[s])    # 第s维上目标点与分割超平面的距离if  max_dist < temp_dist:                # 判断超球体是否与超平面相交return result(nearest, dist, nodes_visited) # 不相交则可以直接返回,不用继续判断#----------------------------------------------------------------------  # 计算目标点与分割点的欧氏距离  temp_dist = sqrt(sum((p1 - p2) ** 2 for p1, p2 in zip(pivot, target)))     if temp_dist < dist:         # 如果“更近”nearest = pivot          # 更新最近点dist = temp_dist         # 更新最近距离max_dist = dist          # 更新超球体半径# 检查另一个子结点对应的区域是否有更近的点temp2 = travel(further_node, target, max_dist) nodes_visited += temp2.nodes_visitedif temp2.nearest_dist < dist:        # 如果另一个子结点内存在更近距离nearest = temp2.nearest_point    # 更新最近点dist = temp2.nearest_dist        # 更新最近距离return result(nearest, dist, nodes_visited)return travel(tree.root, point, float("inf"))  # 从根节点开始递归

2.3、KD树的插入

~~~~~~~~元素插入到一个K-D树的方法和二叉检索树类似。本质上,在偶数层比较x坐标值,而在奇数层比较y坐标值。当我们到达了树的底部,(也就是当一个空指针出现),我们也就找到了结点将要插入的位置。生成的K-D树的形状依赖于结点插入时的顺序。给定N个点,其中一个结点插入和检索的平均代价是O(log2N)。

        ~~~~~~~~应该清楚,这里描述的插入过程中,每个结点将其所在的平面分割成两部分。因比,Chicago 将平面上所有结点分成两部分,一部分所有的结点x坐标值小于35,另一部分结点的x坐标值大于或等于35。同样Mobile将所有x坐标值大于35的结点以分成两部分,一部分结点的Y坐标值是小于10,另一部分结点的Y坐标值大于或等于10。后面的Toronto、Buffalo也按照一分为二的规则继续划分。

2.4、KD树的删除

~~~~~~~~ KD树的删除可以用递归程序来实现。我们假设希望从K-D树中删除结点(a,b)。如果(a,b)的两个子树都为空,则用空树来代替(a,b)。否则,在(a,b)的子树中寻找一个合适的结点来代替它,譬如(c,d),则递归地从K-D树中删除(c,d)。一旦(c,d)已经被删除,则用(c,d)代替(a,b)。假设(a,b)是一个X识别器,那么,它得替代节点要么是(a,b)左子树中的X坐标最大值的结点,要么是(a,b)右子树中x坐标最小值的结点。
        ~~~~~~~~具体操作如下:

~~~~~~~~从一个K-D树中删除结点(a,b)的问题变成了在(a,b)的子树中寻找x坐标为最小的结点。不幸的是寻找最小x坐标值的结点比二叉检索树中解决类似的问题要复杂得多。特别是虽然最小x坐标值的结点一定在x识别器的左子树中,但它同样可在y识别器的两个子树中。因此关系到检索,且必须注意检索坐标,以使在每个奇数层仅检索2个子树中的一个。
        ~~~~~~~~从K-D树中删除一个结点是代价很高的,很清楚删除子树的根受到子树中结点个数的限制。用TPL(T)表示树T总的路径长度。可看出树中子树大小的总和为TPL(T)+N。 以随机方式插入N个点形成树的TPL是O(N*log2N),这就意味着从一个随机形成的K-D树中删除一个随机选取的结点平均代价的上界是O(log2N) 。

最终结果如下:

三、算法改进:BBF

我们在回顾一下KD树的算法过程

算法步骤如下:
       ~~~~~~~● 从根节点开始,将待检索的样本划分到对应的区域中(在kd树形结构中,从根节点开始查找,直到叶子节点,将这样的查找序列存储到栈中)
       ~~~~~~~● 以栈顶元素与待检索的样本之间的距离作为最短距离min_distance
       ~~~~~~~● 执行出栈操作:
       ~~~~~~~       ~~~~~~~◆ 向上回溯,查找到父节点,若父节点与待检索样本之间的距离小于当前的最短距离min_distance,则替换当前的最短距离min_distance
       ~~~~~~~       ~~~~~~~◆ 以待检索的样本为圆心(二维,高维情况下是球心),以min_distance为半径画圆,若圆与父节点所在的平面相割,则需要将父节点的另一棵子树进栈,重新执行以上的出栈操作
       ~~~~~~~● 直到栈为空
        ~~~~~~~~当回退到根结点时,搜索结束,最后的“当前最近点”即为x 的最近邻点。

~~~~~~~~如果实例点是随机分布的,那么kd树搜索的平均计算复杂度是O(NlogN),这里的N是训练实例树。所以说,kd树更适用于训练实例数远大于空间维数时的k近邻搜索,当空间维数接近训练实例数时,它的效率会迅速下降,一降降到“解放前”:线性扫描的速度。
        ~~~~~~~~从上述标准的kd树查询过程可以看出其搜索过程中的“回溯”是由“查询路径”决定的,并没有考虑查询路径上一些数据点本身的一些性质。一个简单的改进思路就是将“查询路径”上的结点进行排序,如按各自分割超平面(也称bin)与查询点的距离排序,也就是说,回溯检查总是从优先级最高(Best Bin)的树结点开始。

具体步骤和思路如下:

● 在某一层,分割面是第ki维,分割值是kv,那么 abs(q[ki]-kv) 就是没有选择的那个分支的优先级,也就是计算的是那一维上的距离;
● 同时,从优先队列里面取节点只在某次搜索到叶节点后才发生,计算过距离的节点不会出现在队列的,比如1~10这10个节点,你第一次搜索到叶节点的路径是1-5-7,那么1,5,7是不会出现在优先队列的。换句话说,优先队列里面存的都是查询路径上节点对应的相反子节点,比如:
        ~~~~~~~~搜索左子树,就把对应这一层的右节点存进队列。
        ~~~~~~~~此算法能确保优先检索包含最近邻点可能性较高的空间,此外,BBF机制还设置了一个运行超时限定。采用了BBF查询机制后,kd树便可以有效的扩展到高维数据集上

事例
        ~~~~~~~~1、将(7,2)压人优先队列中;
        ~~~~~~~~2、提取优先队列中的(7,2),由于(2,4.5)位于(7,2)分割超平面的左侧,所以检索其左子结点(5,4)。同时,根据BBF机制”搜索左/右子树,就把对应这一层的兄弟结点即右/左结点存进队列”,将其(5,4)对应的兄弟结点即右子结点(9,6)压人优先队列中,此时优先队列为{(9,6)},最佳点为(7,2);然后一直检索到叶子结点(4,7),此时优先队列为{(2,3),(9,6)},“最佳点”则为(5,4);
        ~~~~~~~~3、提取优先级最高的结点(2,3),重复步骤2,直到优先队列为空。

四、VP树与MVP树简介

~~~~~~高维特征向量的距离索引问题是基于内容的图像检索的一项关键技术,目前经常采用的解决办法是首先对高维特征空间做降维处理,然后采用包括四叉树、kd树、R树族等在内的主流多维索引结构,这种方法的出发点是:目前的主流多维索引结构在处理维数较低的情况时具有比较好的效率,但对于维数很高的情况则显得力不从心(即所谓的维数危机) 。

~~~~~~实验结果表明当特征空间的维数超过20 的时候,效率明显降低,而可视化特征往往采用高维向量描述,一般情况下可以达到10^2的量级,甚至更高。在表示图像可视化特征的高维向量中各维信息的重要程度是不同的,通过降维技术去除属于次要信息的特征向量以及相关性较强的特征向量,从而降低特征空间的维数,这种方法已经得到了一些实际应用。

~~~~~~然而这种方法存在不足之处采用降维技术可能会导致有效信息的损失,尤其不适合于处理特征空间中的特征向量相关性很小的情况。另外主流的多维索引结构大都针对欧氏空间,设计需要利用到欧氏空间的几何性质,而图像的相似性计算很可能不限于基于欧氏距离。这种情况下人们越来越关注基于距离的度量空间高维索引结构可以直接应用于高维向量相似性查询问题。

⊙拓展:二叉排序树,点击这里

机器学习----KNN中的Kd树及BBF优化相关推荐

  1. 用python手写KNN算法+kd树及其BBF优化(原理与实现)(下篇)

    用python手写KNN算法+kd树及其BBF优化(原理与实现)(下篇) 接上一篇用python手写KNN算法+kd树及其BBF优化(原理与实现)(上篇) 我们使用training2和test2两个数 ...

  2. KNN算法与Kd树(转载+代码详细解释)

    最近邻法和k-近邻法 下面图片中只有三种豆,有三个豆是未知的种类,如何判定他们的种类? 提供一种思路,即:未知的豆离哪种豆最近就认为未知豆和该豆是同一种类.由此,我们引出最近邻算法的定义:为了判定未知 ...

  3. open3d中的kd树详解

    文章目录 open3d实现 原理 k-d树是一种点云划分方法,其基本思路是,对方差最差的维度进行二分分割,从而得到两个子集,再对这两个子集进行相同的操作,直到所有子集的元素个数低于设定值. 考虑到大部 ...

  4. 机器学习算法之二KD树

    KD树 实现k近邻算法时,主要考虑的问题是如何对训练数据进行快速k近邻搜索. 这在特征空间的维数大及训练数据容量大时尤其必要. k近邻法最简单的实现是线性扫描(穷举搜索),即要计算输入实例与每一个训练 ...

  5. KNN的实现——KD树

         实现knn时,主要考虑的问题是如何对训练数据进行快速近邻搜索.这点在特征空间的维数大及训练数据容量大时尤其必要.       knn最简单的实现方法是线性扫描(linear scan).这时 ...

  6. K近邻快速算法 -- KD树、BBF改进算法

    K近邻算法即是查找与当前点(向量)距离最近的K个点(向量),距离计算一般用欧氏距离. 最简单的方法就是穷举法:计算每个向量与当前向量的欧氏距离,选取最小的K个为所求.但这种方法计算量太大,无法应对大样 ...

  7. 特征匹配-NNDR策略,kd树,BBF算法

    特征匹配需要考虑匹配策略和如何更快的完成匹配. 一:以欧式距离为度量,有三种匹配策略:固定阈值.最近邻.最近邻距离比率(NNDR) 固定阈值:就是设定一个阈值,当距离大于阈值,判为不匹配,否则判为匹配 ...

  8. 机器学习 K近邻之KD树基本概念、绘制KD树

    K近邻算法回顾 K近邻法模型的三要素: 距离度量:  K值的选取:K值的选取一般可以采用交叉验证法,且一般小于训练集样本量的平方根 分类决策规则:多数表决等价于误分类数最小 关于K近邻的问题: 1.简 ...

  9. K 近邻算法(KNN)与KD 树实现

    KD树节点 /// <summary>/// KD树节点/// /2016/4/1安晟添加/// </summary>[Serializable]public class KD ...

最新文章

  1. 用matlab求解不等方程组,Matlab:求高人指点用matlab求解非线性方程组,解出来的值不收敛,提前结束...
  2. linux 添加虚拟网卡
  3. java并发练习之快乐影院
  4. 关于使用在webforms里使用routing遇到的问题
  5. ancestral 箭头符号,译林版《牛津高中英语》模块五 高二上学期
  6. python安装scipy出现红字_windows下安装numpy,scipy遇到的问题总结
  7. idea卡顿的解决方法_lt;绝地求生/PUBG/解决卡顿方法(停机9小时)维护gt;9月16日(星期三) 08点30分amp;崩溃...
  8. 爱奇艺PPS如何登陆账号
  9. 怎么一步步编写简单的PHP的Framework(十九)
  10. 从放弃迅雷和IDM到自己开发下载工具 1
  11. java持续集成soapui_接口自动化测试持续集成--Soapui接口测试
  12. fastadmin表格操作
  13. 初生牛犊不怕虎,管他呢! 干就是了。
  14. 《Java编程思想第五章》:初始化与内存
  15. 数据可视化案例(四)——新零售数据大脑,助力智慧零售
  16. 支付分账的体系包含哪些?
  17. html 表格排列,html表格如何排序?表格排序详解!
  18. linux webdav服务,Ubuntu 配置WebDav服务器
  19. 安杰思在科创板IPO过会:拟募资约8亿元,达安基因为其主要股东
  20. vue 生命周期(详解)

热门文章

  1. 会议平板屏幕IPS硬屏和VA软屏哪个好?各自有什么优缺点?
  2. Lactoferrin-PEG-MTX/Paclitaxel 乳铁蛋白-聚乙二醇-甲氨蝶呤/紫杉醇
  3. Java EE入门教程系列第二章JSP(三)——JSP指令与动作组件
  4. Java项目:SSM电子书网站管理系统
  5. python基础语法 - 函数
  6. 在内存中的显示缓存区中显示汉字“中”字(一)
  7. 计算机二级c语言vfp,2016计算机二级《VFP》上机操作题及答案
  8. 二进制方式搭建Kubernetes高可用集群(超丰富的组件概念理论总结)
  9. 尚硅谷Kafka框架学习笔记
  10. 使用PIXIWell_RF 射频模块 虚拟GPS windows系统