目录

一、Introduction

二、相关工作

三、方法

1.准备工作

2.架构

3、训练

4.预测过程

四. 实验

1.训练策略

2.main property

3.消融实验

五、代码分析

1.测试 demo.py

2.训练 train-net.py

总结


DiffusionDet:将目标检测问题构建为一个从带噪框到目标框的降噪扩散过程。在训练阶段,目标框从GT框扩散到随机分布,模型学习如何逆转这个噪声过程;在推理阶段,模型将一系列随机的框逐步改善为输出结果。在MS-COCO和LVIS数据集上,DiffusionDet和已有的目标检测器相比具有较好的性能。本文在目标检测方面带来了两个重要发现:1. 随机的框虽然和预设的anchors或者学习好的queries有很大的不同,但也是有效的目标候选者;2. 目标检测这种代表性的感知任务,也可以通过生成方式解决。

一、Introduction

目标检测的目的是预测一幅图像中目标对象的一组边界框和相关的类别标签。作为一项基本的视觉识别任务,它已成为许多相关识别场景的基石,如实例分割、姿态估计、动作识别、目标跟踪和视觉关系检测。

现代对象检测方法的发展随着候选对象的发展而不断发展,即从经验对象先验(faster-Rcnn、SSD等)到可学习的对象查询(ViT,Sparse r-cnn,DETR)。具体来说,大多数检测器通过对经验设计的候选对象定义代理回归和分类来解决检测任务,如滑动窗口、区域建议、锚框和参考点。DETR 提出了可学习的对象查询来消除手工设计的组件,并建立了一个端到端检测管道,这在基于查询的检测范式上引起了极大的关注。它们依赖于一组固定的可学习的查询。是否有一种更简单的方法,甚至不需要可学习查询的代理?我们设计一个新的框架,可以直接检测来自一组纯随机box中的对象,它不包含在训练中进行优化的可学习参数,我们期望逐步细化这些盒子的位置和大小,直到它们完美地覆盖目标对象

动机如下图所示。认为 noise-to-box 范式的哲学类似于去噪扩散模型中的噪声到图像过程,这是一类基于似然的模型,通过学习的去噪模型逐步从图像中去除噪声来生成图像。扩散模型在许多生成任务[3,4,37,63,85]中取得了巨大的成功,并开始在图像分割[1,5,6,12,28,42,89]等感知任务中进行探索

DiffusionDet,将检测作为生成任务投射在图像中的位置(中心坐标)和边界框的空间和大小(宽度和高度)上来处理目标检测任务。在训练阶段,将由

  1. 方差 schedual控制的高斯噪声添加到groundtruth 中,获得噪声box。
  2. 然后利用这些噪声box,从backbone encoder(如ResNet Swin)的输出特征图中,裁剪感兴趣区域(RoI)特征。
  3. 最后,将这些RoI特征发送到检测 decoder,来预测无噪声的gt box。有了这个训练目标,扩散网能够从随机盒子中预测地面真实盒子。

推理阶段,扩散det通过反转学习扩散过程生成边界盒,将噪声先验分布调整到边界框上的学习分布。

DiffusionDet的 noise to box 具有 Once-for-All 的优点:我们可以对网络进行一次训练,并在不同的设置下使用相同的网络参数进行推理。

  1. 动态框利用随机个 box 作为候选对象,DiffusionDet 解耦训练和评估。可以用N随机box进行训练,同时用N随机box进行评估(N是任意值)
  2. 渐进式细化:扩散模型的迭代细化,有利于优化扩散模型。可调整去噪采样步骤的数量来提高检测精度或加快推理速度,这种灵活性使其能够适应不同的检测场景。

二、相关工作

1.目标检测

大多数现代 object detection 方法对经验目标先验进行边框回归和类别分类,如proposal、anchor、point方法。Carion等人提出了DETR ,使用一组固定的可学习查询来检测对象。我们利用 DiffusionDet 进一步推进了目标检测pipline 的开发,如图所示。

2.Diffusion Model。

扩散模型作为一类深度生成模型,从随机分布的样本出发,通过逐步去噪的过程恢复数据样本。扩散模型最近在计算机视觉、自然语言处理、音频处理、跨学科应用等领域取得了显著的成果。

3.扩散模型的感知任务。

虽然扩散模型在图像生成方面取得了巨大的成功,但它们在鉴别任务方面的潜力还有待充分探索。一些先锋工作尝试采用扩散模型进行图像分割任务[1,5,6,12,28,42,89],

例如,Chen等人[4]采用位扩散模型[8]进行图像和视频的全光分割[ Panoptic segmentation.]。因为分割任务是以图像到图像的方式处理的,这在概念上更类似于图像生成任务,而目标检测是一个集合预测问题[10],它需要将候选对象分配给groundtruth。

三、方法

1.准备工作

目标检测
目标检测的学习目标是输入-目标对 (x、b、c) ,其中x是输入图像,b和c分别是图像x中对象的一组边界框和类别标签。即集合中的第i个框表示为b =(c,c,w,h),c 是边界框的中心坐标,w\h分别是该边界框的宽度和高度。

扩散模型
扩散模型是一类基于概率的模型,其灵感来自于非平衡热力学。这些模型通过逐步向样本数据中添加噪声,定义了扩散正向过程的马尔可夫链。正向噪声过程的定义为

通过向 z 中添加噪声,将数据样本z 转换为t∈{0,1,…,T}的潜在噪声样本 z。在训练过程中,训练一个神经网络f(zt,t),通过最小化训练目标来从 z 中预测 z

在这项工作中,我们的目标是通过扩散模型来解决目标检测任务。在我们的设置中,数据样本是一组边界框z = b,其中b∈R是一组N个框。训练神经网络 f(z,t,x) 从噪声框 z 中预测 z,相应地生成相应的类别标签c

2.架构

由于扩散模型是迭代生成数据样本,因此在推理阶段需要多次运行模型 f。然而,在每一个迭代步骤中,直接将fθ应用于原始图像将是难以计算的。因此,我们建议将整个模型分为两部分,图像编码器检测解码器,前者只运行一次,从原始输入图像 x 提取深度特征,后者把这个深层功能作为条件(而非原始图像输入),利用噪声 z 逐步完善bounding box

2.1 图像 encoder
将原始图像作为输入,并提取其高级特征,可使用卷积神经网络如ResNet 和Swin 模型来实现 DiffusionDet。FPN 用于生成多尺度特征图。

2.2 Detection decoder

借鉴于 Sparse R-CNN, 检测解码器以一组建议框作为输入,从图像编码器生成的特征图中裁剪roi特征,并将这些roi特征发送到检测头,获得回归和分类结果。检测解码器由6个级联阶段组成,与Sparse R-CNN中的解码器的区别在于:(1)扩散det从随机的 box 开始,而Sparse R-CNN使用一组固定的学习盒子进行推理;(2)稀疏R-CNN将建议box及其相应特征作为输入对,而扩散网只需要建议box;(3)扩散网在迭代采样步骤中重复使用探测器头,参数在不同步骤中共享,每个步骤通过时间步嵌入指定到扩散过程中,而稀疏R-CNN在前向传递中只使用检测解码器一次。

3、训练

训练中,首先构造从GT box 到噪声 box 的扩散过程,然后训练模型来逆转这个过程。算法1提供了扩散点训练过程的伪代码。

3.1 Groundtruth boxes 扩充.

由于感兴趣的实例数量通常因不同的图像而变化。因此,需将额外的box 填充到原始的 Groundtruth 中,则proposal的数量固定为 N。我们探索了几种填充策略,例如,重复现有的地面真实框concat 随机框或图像大小的框。这些策略的比较见第4.4节,连接随机框效果最好。

3.2 Box corruption 目标框的破坏
在 pad 后的GT box 中加入高斯噪声。噪声尺度由 α 控制(在等式中(1)),对不同时间步长t下的 α采用单调递减余弦调度。由于信噪比对扩散模型的性能有显著影响,因此GT box坐标也需要进行比例缩放。我们观察到,目标检测倾向于一个比图像生成标准高的的信号缩放值。更多的讨论见第4.4节。

3.3 训练损失
检测检测器以 N 加噪box作为输入,预测类别分类和 N 框坐标的预测。我们将集预测损失应用于 N 预测集。我们通过最优传输分配方法选择成本最小的前k个预测,为每个地面真相分配多个预测。

4.预测过程

DiffusionDet 的推理过程是一个从噪声到目标框的去噪采样过程。从在高斯分布中采样的盒子开始,该模型逐步细化其预测:

4.1采样步骤
随机box或最后一个采样步骤中的估计box ,被发送到检测解码器中,以预测类别分类和 box 坐标。在获得当前步骤的box后,采用DDIM对下一步的box 进行估算。我们注意到,将不带DDIM的预测框发送到下一步也是一种可选的渐进细化策略。然而,如第4.4节所述,它会带来严重的恶化。

4.2 方框更新
在每个采样步骤之后,预测的 box 可以粗略地分为两种类型,期望预测非期望预测。期望预测包含正确位于相应对象上的框,而非期望预测是任意分布的。直接将这些非期望box发送到下一个采样迭代不会带来好处,因为它们的分布不是由训练中的box损坏构建的。为了使推理更好地与训练相一致,我们提出了box更新的策略,通过用随机的box来恢复这些非期望的box。具体来说,首先过滤掉分数低于特定阈值的不期望的方框。然后,我们将剩余的box与从高斯分布中抽样的新的随机box连接起来

4.3 一劳永逸
由于随机box的设计,我们可以用任意数量的随机box和采样步数来评估DiffusionDet ,这不需要等于训练阶段。作为比较,以前的方法在训练和评估过程中依赖于相同数量的处理过的box,它们的检测解码器在正向传递中只使用一次。

四. 实验

1.训练策略

ResNet和Swin主干分别在ImageNet-1K和ImageNet-21K上预训练。

新添加的 detect decoder 用Xavier init 进行初始化,用AdamW优化器,初始学习率为2.5×10−5,权重衰减为10−4。模型在8个gpu上,用16的 batchsize 训练。

对于MS-COCO,450K个iter,在350K和420K迭代时,学习率除以10。对于LVIS,训练iter 为210K、250K、270K。数据增强策略包括随机水平翻转,调整输入图像大小的比例抖动,最短边至少480像素,最多800,最长边最多1333。不使用EMA和一些强大的数据增强,如MixUp [98]或Mosaic

2.main property

扩散法的主要性质在于对所有推理情况的一次训练。一旦模型被训练好了,它就可以用于在推理中改变方框的数量和样本步骤的数量,如图所示。扩散det可以通过使用更多的box或更多的细化步骤,以更高延迟为代价,从而实现更高的准确性。因此,我们可以在多个场景中部署一个扩散网络,并在不需要再训练网络的情况下获得一个期望的速度-精度的权衡。

3.消融实验

Signal scaling
信号尺度因子控制着扩散过程的信噪比(SNR)。我们研究了比例因子的影响。结果表明,2.0的比例因子达到了最佳的AP性能,优于图像生成任务的标准值1.0和全景分割的标准值0.1。我们考虑到,这是因为一个盒子只有四个表示参数,即中心坐标(cx,cy)和盒子大小(w,h),这与图像生成中只有四个像素的图像大致相似。盒子表示比密集表示更脆弱,例如,在全光分割中的512×512掩模表示。因此,与图像生成和全光分割相比,扩散det更喜欢一个增加信噪比的更容易的训练目标

五、代码分析

1.测试 demo.py

##-------------------1.提取图像特征-----------------------
src = self.backbone(images.tensor)
features =[src['p2'],src['p3'],src['p4'],src['p5']]results = self.ddim_sample(batched_inputs, features, images_whwh, images)# images:(800,1333), normal to(0,1)def ddim_sample(self, batch, feats, whwh, images, clip_denoised=True, do_postprocess=True):shape =(batch, self.num_proposals,4)         # (1,500,4)total_timesteps, sampling_timesteps, eta, objective = self.num_timesteps, self.sampling_timesteps, self.ddim_sampling_eta, self.objective# T=1000, sampling_timesteps=1, eta=1, objective='pred_x0'time_pairs =(999,-1)img = torch.randn(shape, device)               # (1,500,4)preds, outputs_class, outputs_coord = self.model_predictions(backbone_feats,images_whwh, img, time=999, self_cond=None, clip_x_start=clip_denoised)# ----------------2. 随机生成bbox,循环解码6次----------------
#(随机噪声映射到图像大小,提取对应特征并继续解码)for head_idx, rcnn_head inenumerate(self.head_series):            class_logits, bboxes, proposal_features =rcnn_head(features, bboxes, proposal_features, self.box_pooler, time)roi_features =pooler(features, proposal_boxes)     # (1,500,4)->(500,256,7,7)-->(500,256,49)pro_features = roi_features.view(N, nr_boxes, self.d_model,-1).mean(-1)         # (500,1,256)# 1.自注意力pro_features2 = self.self_attn(pro_features, pro_features, value=pro_features)[0]    # (500,1,256)->(500,1,256) # 2.inst_interact.pro_features2 = self.inst_interact(pro_features, roi_features)   # conv+linear+prod ->(500,256)# 3.fuse_time_embeddingscale_shift = self.block_time_mlp(time_emb)          # conv ->(1,512)scale_shift = torch.repeat_interleave(scale_shift, nr_boxes, dim=0)    # (500,512)scale, shift = scale_shift.chunk(2, dim=1)        # (500,256)(500,256)fc_feature = fc_feature *(scale +1)+ shift     # (500,256)# 4.分类/回归class_logits = self.class_logits(fc_feature)     # conv->(500,80)bboxes_deltas = self.bboxes_delta(fc_feature)    # conv->(500,4)pred_bboxes = self.apply_deltas(bboxes_deltas, bboxes.view(-1,4))    # decode-> xyxyoutputs_class.append(class_logits)      # (6,500,80)outputs_coord.append(pred_bboxes)       # (6,500,4)#--------------------3.-----------------------               x_start = outputs_coord[-1]/images_whwh      # 取最后一次结果,做归一化pred_noise = self.predict_noise_from_start(img, t=999, x_start)                # 输入输出dim相同# img(1,500,4)为最开始生成的噪声,X0(即x_start)为最终预测边界框,其具体代码为:(extract(self.sqrt_recip_alphas_cumprod, t, img.shape)* img - x_start)/extract(self.sqrt_recipm1_alphas_cumprod, t, img.shape)#------------------------------4.nms与后处理---------------------------------
# 貌似没用到pred_noise和cls_score, 直接nms得到500个proposal中的230个目标
results = self.inference(box_cls, box_pred, images.image_sizes)           # nms 筛选并得到具体类别
r =detector_postprocess(results_per_image,300,500)                             # resize回原尺寸300,500#------------------------------5.分数筛选---------------------
new_instances = instances[instances.scores > self.threshold=0.5]        #  (215)-->(9)

2.训练 train-net.py

0.提取特征
features = self.backbone(images.tensor)1.targets, x_boxes, noises, t = self.prepare_targets(gt_instances)def prepare_targets(self, targets):# 循环所有图像 batchgt_boxes =xyxy_to_cxcywh(gt_boxes/ image_size_xyxy)    # 归一化d_boxes, d_noise, d_t = self.prepare_diffusion_concat(gt_boxes)d_t = torch.randint(0,T=1000).long()         # 随机选 td_noise = torch.randn( num_proposals=500,4)# 01.真实目标不够500,补充到500if num_gt < self.num_proposals:box_placeholder = torch.randn(500- num_gt,4)/6.+0.5                # 3sigma=1/2-> sigma:1/6x_start = torch.cat((gt_boxes, box_placeholder), dim=0)                  # (500,4) # 02.预测分布 q(x_t-1|x_t, x_0)d_boxes = self.q_sample(x_start=x_start, t=d_t, noise=d_noise)   # 即公式:qrt_alphas_cumprod_t =extract(self.sqrt_alphas_cumprod, t, x_start.shape)sqrt_one_minus_alphas_cumprod_t =extract(self.sqrt_one_minus_alphas_cumprod, t, x_start.shape)x = sqrt_alphas_cumprod_t * x_start + sqrt_one_minus_alphas_cumprod_t * noised_boxes =box_cxcywh_to_xyxy(x)x_boxes = cat(d_boxes)target["labels"]= gt_classes # [29,0,1]       target["boxes"]= gt_boxes  # 归一化坐标target["boxes_xyxy"]= targets_per_image.gt_boxes    # (3,4)target["image_size_xyxy"]= image_size_xyxyimage_size_xyxy_tgt = image_size_xyxy.unsqueeze(0).repeat(len(gt_boxes),1)target["image_size_xyxy_tgt"]= image_size_xyxy_tgttarget["area"]= targets_per_image.gt_boxes.area()x_boxes = x_boxes * images_whwh[:, None,:]         # (bs,500,4)
2.计算网络输出
outputs_class, outputs_coord = self.head(features, x_boxes, t, None)   # t:(8)
# outputs_class:(6,bs,500,80)  outputs_coord:(6,bs,500,4)output ={'pred_logits': outputs_class[-1],'pred_boxes': outputs_coord[-1]}if self.deep_supervision:                                           # Trueoutput['aux_outputs']=[{'pred_logits': outputs_class[:-1],'pred_boxes': outputs_coord[:-1]}]3.计算损失
loss_dict = self.criterion(output, targets)      # Hungarian匹配损失indices, _ = self.matcher(outputs_class[-1], outputs_coord[-1], targets)fg_mask, is_in_boxes_and_center = self.get_in_boxes_info(box_xyxy_to_cxcywh(bz_boxes),            # absolute (3,4):x, y, w, hbox_xyxy_to_cxcywh(bz_gtboxs_abs_xyxy),  # absolute (500,4):x, y, w, hexpanded_strides=32)# 筛选出500个pro是否在3个gt的 (框内|中心点2.5范围内),返回两个值都是(500)×[True,False]# 01.IOU损失pair_wise_ious = ops.box_iou(bz_boxes, bz_gtboxs_abs_xyxy)    # 之间的iou(500,3)# 02.类别损失if self.use_focal:                      # Truealpha = self.focal_loss_alpha       # 0.25gamma = self.focal_loss_gamma       # 2neg_cost_class =(1- alpha)*(bz_out_prob ** gamma)*(-(1- bz_out_prob +1e-8).log())   # (500,80)pos_cost_class = alpha *((1- bz_out_prob)** gamma)*(-(bz_out_prob +1e-8).log())cost_class = pos_cost_class[:, bz_tgt_ids]- neg_cost_class[:, bz_tgt_ids]                  # (500,3)# 03.距离损失cost_bbox = torch.cdist(bz_out_bbox_, bz_tgt_bbox_, p=1)    # (500,3)# 04.gioucost_giou =-generalized_box_iou(bz_boxes, bz_gtboxs_abs_xyxy)    # (500,3)# 05.总损失cost =5*cost_bbox+2*cost_class +2*cost_giou +100.0*(~is_in_boxes_and_center)cost[~fg_mask]= cost[~fg_mask]+10000.0                    # (500,3)indices_batchi, matched_qidx = self.dynamic_k_matching(cost, pair_wise_ious, bz_gtboxs.shape[0])# k=5 动态匹配:def dynamic_k_matching(self, cost, pair_wise_ious, num_gt):matching_matrix = torch.zeros_like(cost)  # [300,num_gt]ious_in_boxes_matrix = pair_wise_iousn_candidate_k = self.ota_k# Take the sum of the predicted value and the top 10 iou of gt with the largest iou as dynamic_ktopk_ious, _ = torch.topk(ious_in_boxes_matrix, n_candidate_k, dim=0)   # (500,3)->(5,3)dynamic_ks = torch.clamp(topk_ious.sum(0).int(), min=1)                 # sum(5,3)->(3)for gt_idx inrange(num_gt):_, pos_idx = torch.topk(cost[:, gt_idx], k=dynamic_ks[gt_idx].item(), largest=False)     # [376]500中分数最大的那一个索引matching_matrix[:, gt_idx][pos_idx]=1.0                                                # (500,3)中只有3个1anchor_matching_gt = matching_matrix.sum(1)selected_query = matching_matrix.sum(1)>0            # (500):[F,F,F,F...T,F]gt_indices = matching_matrix[selected_query].max(1)[1]   # [1,0,2]assert selected_query.sum()==len(gt_indices)cost[matching_matrix ==0]= cost[matching_matrix ==0]+float('inf')matched_query_id = torch.min(cost, dim=0)[1]             # [376,32,403]return(selected_query, gt_indices), matched_query_id4.更新损失
losses ={}
or loss in self.losses:losses.update(self.get_loss(loss, outputs, targets, indices, num_boxes))# 循环6次,把6次解码损失,按同样方法计算,并更新损失
if'aux_outputs'inoutputs:for i, aux_outputs inenumerate(outputs['aux_outputs']):indices, _ = self.matcher(aux_outputs, targets)

其实代码更像是Cascade-RCNN,只是初始anchor是随机生成,并利用DDPM公式做了解码。

总结

在这项工作中,我们提出了一种新的检测范式,扩散det,通过将目标检测视为一个从噪声box到物体box的去噪扩散过程。我们的 noise-> box 管道有几个吸引人的特性,包括动态box 和逐步细化,使我们能够使用相同的网络参数来获得所需的速度-精度的权衡,而不需要重新训练模型。在标准检测基准上的实验表明,与成熟的探测器相比,扩散器取得了良好的性能。为了进一步探索扩散模型在解决对象级识别任务中的潜力,未来的一些工作是有益的。一种尝试将扩散数据应用于视频层任务,例如物体跟踪和动作识别。另一种方法是将扩散网络从封闭世界扩展到开放世界或开放词汇表对象检测。

目标检测—DiffusionDet:用于检测的概率扩散模型笔记—DDPM相关推荐

  1. Diffusion 扩散模型(DDPM)详解及torch复现

    文章目录 torch复现 第1步:正向过程=噪声调度器 Step 2: 反向传播 = U-Net Step 3: 损失函数 采样 Training 我公众号文章目录综述: https://wanggu ...

  2. 【目标检测】【DDPM】DiffusionDet:用于检测的概率扩散模型

    文章目录 摘要 一.Introduction 二.相关工作 三.方法 1.准备工作 2.架构 3.训练 4.预测过程 四. 实验 1.训练策略 2.main property 3.消融实验 五.代码分 ...

  3. 【生成模型】DDPM概率扩散模型(原理+代码)

    --- 前言 一.常见生成模型 二.直观理解Diffusion model 三.形式化解析Diffusion model *四.详解 Diffusion Model(数学推导) 1.前向过程(扩散过程 ...

  4. 物体检测,用于检测红灯笼demo(含训练代码)

    向AI转型的程序员都关注了这个号

  5. 二维码及条形码智能检测软件(Python+YOLOv5深度学习模型+清新界面)

    摘要:二维码及条形码智能检测软件用于检测常用条形码和二维码,对其位置进行精确定位.记录并显示检测结果,辅助识别算法定位条形码或二维码.本文详细介绍二维码及条形码智能检测软件,在介绍算法原理的同时,给出 ...

  6. 扩散模型diffusion model用于图像恢复任务详细原理 (去雨,去雾等皆可),附实现代码

    文章目录 1. 去噪扩散概率模型 2. 前向扩散 3. 反向采样 3. 图像条件扩散模型 4. 可以考虑改进的点 5. 实现代码 话不多说,先上代码: 扩散模型diffusion model用于图像恢 ...

  7. 李沐论文精读系列五:DALL·E2(生成模型串讲,从GANs、VE/VAE/VQ-VAE/DALL·E到扩散模型DDPM/ADM)

    文章目录 一. 前言 1.1 DALL·E简介 1.2 DALL·E2简介 1.3 文生图模型进展 二. 引言 2.1 摘要 2.2 引言&模型结构 三. 算法铺垫 3.1 GANs 3.2 ...

  8. AI绘画能力的起源:通俗理解VAE、扩散模型DDPM、DETR、ViT/Swin transformer

    前言 2018年我写过一篇博客,叫:<一文读懂目标检测:R-CNN.Fast R-CNN.Faster R-CNN.YOLO.SSD>,该文相当于梳理了2019年之前CV领域的典型视觉模型 ...

  9. 扩散模型(Diffusion Model)最新综述!

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 本综述来自西湖大学李子青实验室.香港中文大学Pheng-Ann Heng和浙江大学陈广勇团队,对现有的扩散生 ...

  10. 扩散模型(Diffusion)最新综述+GitHub论文汇总-A Survey On Generative Diffusion

    扩散模型(Diffusion Model)最新综述+GitHub论文汇总-A Survey On Generative Diffusion 本综述来自香港中文大学Pheng-Ann Heng.西湖大学 ...

最新文章

  1. “后浪95后”吴尚哲的 CVPR 最佳论文:无需任何监督,即可重建三维图像
  2. python中的模运算符_Python中的字符串模运算符与format函数
  3. C#获得父进程PID编号的完整源源码
  4. 漳州市2021高考成绩查询,漳州市招生管理系统2021漳州中考成绩查询入口
  5. 整合框架过程记录日志
  6. Linux服务部署之NTP时间服务器
  7. 阿里云 腾讯云 服务器挂载数据盘
  8. 小雨的矩阵(DFS三参数模板题)
  9. ubuntu下,apt的参数使用,很实用呦
  10. bzoj 1691: [Usaco2007 Dec]挑剔的美食家(multiset贪心)
  11. linux中安装wine运行windows程序
  12. Java 多线程思维导图
  13. Struts2第一天课堂笔记
  14. 机器学习笔记 - 什么是t-SNE?
  15. 高等数学学习笔记——第六十一讲——空间曲线的弧长与曲率
  16. 登录失败:用户帐户限制。可能的原因包括不允许空密码,登录时间限制,或强制的策略限制。...
  17. 专用微处理器电源监控和看门狗芯片--MAX708
  18. 鸿蒙生态箐英班,华为联合西北工业大学开设 “鸿蒙生态菁英班”: 50 人左右,锁定终端软件领域...
  19. 基于Python的指数基金量化投资——指数数据获取
  20. Xception简介

热门文章

  1. 电脑如何做动态图 GIF表情包怎么制作
  2. 美光证实:DDR5 内存供应不足与 PMIC 和 VRM 短缺有关,2022 年改善的可能性很小
  3. 学习笔记(8):ArcGIS10.X入门实战视频教程(GIS思维)-矢量数据数量分级显示、图表显示,多属性、lyr保存
  4. HappenBefore指令重排
  5. Win10下IE无法打开网页的解决办法
  6. 从零开始,学会Python爬虫不再难!!! -- (13)selenium项目:自动点赞机丨蓄力计划
  7. 认识并行、并发、多线程
  8. Poi HSSFCellStyle.ALIGN_CENTER VERTICAL_CENTER 等爆红的解决办法
  9. win10小娜搜索框搜索无反应
  10. c fflush函数