神经网络测试样本集,训练样本集怎么理解,编程目的是让 测试样本输出跟踪目标输出么?谢谢指导~~~不懂~

训练样本是用来训练学习机的,测试样本是学习机要识别的对象。

比如你想让一台电脑能识别茶杯,首先你要准备一个茶杯(训练样本),然后把茶杯给计算机看(数据输入),并告诉电脑说这样的东东是茶杯(期望输出),电脑看到茶杯后它认为是花盆,但看到你的期望是茶杯,他就不停训练自己这个是茶杯不是花盆,直到电脑他自己认为茶杯是茶杯后结束(这个过程叫学习),然后你把另一只茶杯(测试样本)放在电脑面前,并问他这是什么东东,电脑通过运算后告诉你是茶杯(这个过程叫识别)。

神经网络的原理是输入层的数据经过多个神经元后的输出值尽量接近给出的期望值,如果输出值与期望值误差大,则反复修改神经元的权,直到输出值与期望值的误差在可接受范围。

谷歌人工智能写作项目:爱发猫

关于卷积神经网络的训练样本及测试样本

BP神经网络的训练集需要大样本吗?一般样本个数为多少?

BP神经网络的训练集需要大样本吗?一般样本个数为多少?

BP神经网络样本数有什么影响学习神经网络这段时间,有一个疑问,BP神经网络中训练的次数指的网络的迭代次数,如果有a个样本,每个样本训练次数n,则网络一共迭代an次,在n>>a情况下,网络在不停的调整权值,减小误差,跟样本数似乎关系不大。

而且,a大了的话训练时间必然会变长。换一种说法,将你的数据集看成一个固定值,那么样本集与测试集也可以按照某种规格确定下来如7:3所以如何看待样本集的多少与训练结果呢?

或者说怎么使你的网络更加稳定,更加符合你的所需。

我尝试从之前的一个例子中看下区别如何用70行Java代码实现深度神经网络算法作者其实是实现了一个BP神经网络,不多说,看最后的例子一个运用神经网络的例子最后我们找个简单例子来看看神经网络神奇的效果。

为了方便观察数据分布,我们选用一个二维坐标的数据,下面共有4个数据,方块代表数据的类型为1,三角代表数据的类型为0,可以看到属于方块类型的数据有(1,2)和(2,1),属于三角类型的数据有(1,1),(2,2),现在问题是需要在平面上将4个数据分成1和0两类,并以此来预测新的数据的类型。

图片描述我们可以运用逻辑回归算法来解决上面的分类问题,但是逻辑回归得到一个线性的直线做为分界线,可以看到上面的红线无论怎么摆放,总是有一个样本被错误地划分到不同类型中,所以对于上面的数据,仅仅一条直线不能很正确地划分他们的分类,如果我们运用神经网络算法,可以得到下图的分类效果,相当于多条直线求并集来划分空间,这样准确性更高。

图片描述简单粗暴,用作者的代码运行后训练5000次。

根据训练结果来预测一条新数据的分类(3,1)预测值(3,1)的结果跟(1,2)(2,1)属于一类属于正方形这时如果我们去掉2个样本,则样本输入变成如下//设置样本数据,对应上面的4个二维坐标数据double[][]data=newdouble[][]{{1,2},{2,2}};//设置目标数据,对应4个坐标数据的分类double[][]target=newdouble[][]{{1,0},{0,1}};12341234则(3,1)结果变成了三角形,如果你选前两个点你会发现直接一条中间线就可以区分这时候的你的结果跟之前4个点时有区别so你得增加样本直到这些样本按照你所想要的方式分类,所以样本的多少重要性体现在,样本得能反映所有的特征值(也就是输入值),样本多少或者特征(本例子指点的位置特征)决定的你的网络的训练结果,!

!!这是我们反推出来的结果。这里距离深度学习好像近了一步。另外,这个70行代码的神经网络没有保存你训练的网络,所以你每次运行都是重新训练的网络。

其实,在你训练过后权值已经确定了下来,我们确定网络也就是根据权值,so只要把训练后的权值保存下来,将需要分类的数据按照这种权值带入网络,即可得到输出值,也就是一旦网络确定,权值也就确定,一个输入对应一个固定的输出,不会再次改变!

个人见解。

最后附上作者的源码,作者的文章见开头链接下面的实现程序可以直接拿去使用,import.Random;publicclassBpDeep{publicdouble[][]layer;//神经网络各层节点publicdouble[][]layerErr;//神经网络各节点误差publicdouble[][][]layer_weight;//各层节点权重publicdouble[][][]layer_weight_delta;//各层节点权重动量publicdoublemobp;//动量系数publicdoublerate;//学习系数publicBpDeep(int[]layernum,doublerate,doublemobp){=mobp;=rate;layer=newdouble[layernum.length][];layerErr=newdouble[layernum.length][];layer_weight=newdouble[layernum.length][][];layer_weight_delta=newdouble[layernum.length][][];Randomrandom=newRandom();for(intl=0;l。

神经网络对样本个数有要求么?

bp神经网络只有一类样本怎么分类

神经网络一列为一个样本,所以对于matlab而言,要求输入和输出的列数必须一样的经常有人问起的问题:Errorusing==>network/trainTargetsareincorrectlysizedfornetwork.Matrixmusthave1rows.解决:要求PT的列数一样,如果不一样P=p’t=t’转置一下2.归一澄清一个对归一的错误理解1样本矩阵为9行4列。

9组样本,4个变量。

现在归一化:x=[68.766.6561019.2;89.990.8450011.8;120.8120.6680020.6;16940.4616040.6;180.869.8733033.4;190.3130.2732031.6;109.8151.1575486.1;33.261.4825522.6;111.7126.6704013.6;]写法一:fori=1:9x1(i,:)=(x(i,:)-min(x(i,:)))/(max(x(i,:))-min(x(i,:)))end结果:0.00890.00851.000000.01740.01761.000000.01480.01481.000000.021001.00000.00000.02020.00501.000000.02180.01351.000000.00420.01151.000000.00130.00471.000000.01400.01611.00000写法二:x=x'fori=1:4x1(i,:)=(x(i,:)-min(x(i,:)))/(max(x(i,:))-min(x(i,:)))end结果:Columns1through80.22600.36090.55760.86440.93951.00000.487600.23670.45530.724500.26560.81121.00000.18970.295600.61250.44210.75370.75100.33401.00000.099600.11840.38760.29070.26651.00000.1454Column90.49970.77870.67640.0242注意:写法 2为正确的归一化对归一的错误理解2将数据集分为训练集和测试集,对训练集和测试集分别做归一处理所以就会有人问如果我的测试集只有一个数据如何归一呀最大最小值从那里找呀正确的理解是:训练集和测试集的归一标准是一样的建议:如果训练集和测试集是一起归一的可以自己编程实现归一如果是训练集和测试集是分开的,最好是使用matlab自带的premnmx、postmnmx、tramnmx函数如果是自己编程的话,请注意训练集和测试集的归一标准需要一样premnmx、postmnmx、tramnmx函数的使用例子如下:ExampleHereisthecodetonormalizeagivendatasetsothattheinputsandtargetswillfallintherange[-1,1],usingPREMNMX,andthecodetotrainanetworkwiththenormalizeddata.p=[-10-7.5-5-2.502.557.510];t=[07.07-10-7.0707.07107.070];[pn,minp,maxp,tn,mint,maxt]=premnmx(p,t);net=newff(minmax(pn),[51],{'tansig''purelin'},'trainlm');net=train(net,pn,tn);Ifwethenreceivenewinputstoapplytothetrainednetwork,wewilluseTRAMNMXtotransformthemfirst.Thenthetransformedinputscanbeusedtosimulatethepreviouslytrainednetwork.ThenetworkoutputmustalsobeunnormalizedusingPOSTMNMX.p2=[4-7];[p2n]=tramnmx(p2,minp,maxp);an=sim(net,pn);[a]=postmnmx(an,mint,maxt);这个是归一到-1和1之间那我要归一到01之间怎么办有人说可以使用加绝对值就归一到01之间了我觉得加绝对值可能会有些问题比较好的方式是变换P在-11之间Pp=(p+1)/2就可以归一到01之间至于要归一到0.1-0.9之间选取合适的变换就可以做到了二、神经网络(BP)系列(2)(初学者系列)每次结果不一样解析这个系列主要针对使用matlab神经网络工具箱,对一些初学者容易理解错误的地方进行解析。

神经网络每次结果不同解析神经网络每次结果不同是因为初始化的权值和阈值是随机的因为每次的结果不一样,才有可能找到比较理想的结果啊找到比较好的结果后,用命令savefilenamenet;保存网络,可使预测的结果不会变化,调用时用命令loadfilenamenet;取p_test=[];t_test=[];t=sim(net,p_test);err=t_test-t;plot(p_test,err);选择误差小的保存网络savefilenamenet以后调用时loadfilenamenetp_test=[];t_test=[];t=sim(net,p_test);err=t_test-t;plot(p_test,err):因为每次初始化网络时都是随机的,而且训练终止时的误差也不完全相同,结果训练后的权植和阀也不完全相同(大致是一样的),所以每次训练后的结果也略有不同举个例子,这样初始化就能使网络的输出结果是一样的,另外也可以给网络特定的权值,一种方法是把预测结果后的效果比较好的权值做为初值p=[0.87260.94410;000.7093;0.73780.70930.3795;0.64160.37950.7031;10.70310.4241;0.77740.42410.9559;0.95590.50120.7052;...0.82090.70520.4983;0.60110.49831;]';t=[00.73780.641610.77740.50120.82090.60110.9350];rand('state',0);net=newff(minmax(p),[6,1],{'tansig','logsig'},'trainlm');net.trainParam.epochs=2000;=0.001;net=train(net,p,t);y=sim(net,p);error=y-t;res=norm(error);p_test=[0.935010.6236;]';t_test=[0.8027]a=sim(net,p_test)rand('state',0);这个的作用是每次初始化一样0是种子数,如果换成其他数,就可以产生不同的随机值注:rand('state',0);的使用有点为结果相同而相同,至于这样的结果网络性能是否达到好的要求则没有考虑,建议还是不要用这种方法使每次结果相同用保存网络的方法吧消除初值影响可以考虑的另一个方法是简单集成神经网络原理由于选择不同的权值所得结果不同,使最终神经网络泛化能力体现出一定的随机性。

利用这个特性也可以改善神经网络的泛化能力,神经网络集成便是利用这种思路的体现,即先训练一组只有初始权值不同的子网,然后通过各子网“表决(Voting)”的形式(如加权和)得到学习系统的输出。

当神经网络集成用于分类器时,集成的输出通常由个体网络的输出投票产生。通常利用绝对多数投票法(某分类成为最终结果当且仅当输出结果为该分类的神经网络的数目最多)。理论分析和大量实验表明,后者优于前者。

因此,在对分类器进行集成时,目前大多采用相对多数投票法。当神经网络集成用于回归估计时,集成的输出通常由各网络的输出通过简单平均或加权平均产生。

Perrone等人认为,采用加权平均可以得到比简单平均更好的泛化能力。

三、神经网络(BP)系列(3)(初学者请看)分类实例分类实例输入输出设计:对某一问题分析,影响网络性能的输入主要有5个指标,输出则分为8类。8类的话可以用三位二进制表示。

000001010011100101110111神经网络的输入为5维的向量,输出为三维的向量。

输入的数据具有不同的单位和量级,所以在输入在输入神经网络之前应该首先进行归一化处理,将样本数据归一到01之间。

样本总共有328组数据将样本集分为训练集和测试集随机抽取70取做为测试测试集其余的作为训练集网络设计采用tansig(x)和logsig(x)函数作为传输函数,tansig(x)如下式:tansig=2/(1+exp(-2x))-1logsig(x)如下式:logsig(x)=1/(1+exp(-n))对于有限个输入到输出的映射,并不需要无限个隐层节点,这就涉及到如何选择隐层节点数的问题,而这一问题的复杂性,使得至今为止尚未找到一个很好的解析式,隐层节点数往往根据前人设计所得的经验和自己进行试验来确定。

设计网络时我采用的方法是通过神经网络训练来确定隐含层的个数,首先确定隐含层中节点数目的范围,设计一个隐含层神经元数目可变的BP网络,通过误差对比,确定最佳的隐含层神经元的个数。

最后确定的隐含层的个数为12。所以网络结构为5-12-3的三层结构。

load('');p=CC1(:,[1,3:6])';T=[000;111;110;101;100;011;010;001];t=repmat(T,41,1)';pp=p;%%%%%%归一到01之间fori=1:5p(i,:)=(p(i,:)-min(p(i,:)))/(max(p(i,:))-min(p(i,:)));endAllSamNum=328;%总样本数TrainSamNum=258;%训练样本数TestSamNum=AllSamNum-TrainSamNum;%测试样本数PerPos=randperm(AllSamNum);TrainDataIn=p(:,1:TrainSamNum)TrainDataOut=t(:,1:TrainSamNum)TestDataIn=p(:,PerPos(:,TrainSamNum+1:TrainSamNum+TestSamNum))TestDataOut=t(:,PerPos(:,TrainSamNum+1:TrainSamNum+TestSamNum))MaxMin=[01;01;01;01;01];net=newff(MaxMin,[12,3],{'tansig','logsig'},'trainlm');%训练参数设置net.trainParam.epochs=1000;%训练次数=0.0001;%训练结束的目标=0.1;%学习率=20;net=train(net,TrainDataIn,TrainDataOut);out=sim(net,TestDataIn)训练结果:TRAINLM,Epoch0/1000,MSE0.296308/0.0001,Gradient83.9307/1e-010TRAINLM,Epoch20/1000,MSE0.0224641/0.0001,Gradient6.7605/1e-010TRAINLM,Epoch40/1000,MSE0.00563627/0.0001,Gradient3.27027/1e-010TRAINLM,Epoch60/1000,MSE0.00348587/0.0001,Gradient1.49868/1e-010TRAINLM,Epoch80/1000,MSE0.00247714/0.0001,Gradient0.459233/1e-010TRAINLM,Epoch100/1000,MSE0.0018843/0.0001,Gradient0.289155/1e-010TRAINLM,Epoch120/1000,MSE0.00148204/0.0001,Gradient0.392871/1e-010TRAINLM,Epoch140/1000,MSE0.00119585/0.0001,Gradient0.340864/1e-010TRAINLM,Epoch160/1000,MSE0.000980448/0.0001,Gradient0.391987/1e-010TRAINLM,Epoch180/1000,MSE0.000779059/0.0001,Gradient0.389835/1e-010TRAINLM,Epoch200/1000,MSE0.000606974/0.0001,Gradient0.310202/1e-010TRAINLM,Epoch220/1000,MSE0.000388926/0.0001,Gradient0.331632/1e-010TRAINLM,Epoch240/1000,MSE0.000143563/0.0001,Gradient0.0403953/1e-010TRAINLM,Epoch248/1000,MSE9.87756e-005/0.0001,Gradient0.174263/1e-010TRAINLM,Performancegoalmet.训练好的权值、阈值的输出方法是:输入到隐层权值:{1,1}隐层阈值:theta1=net.b{1}隐层到输出层权值:{2,1};输出层阈值:theta2=net.b{2}>>{1,1}w1=1.7663-2.8022-0.7142-2.1099-2.40113.6614-2.5297-4.42955.05088.18994.40077.6775-6.02826.15671.87754.5009-9.99155.97375.02343.39310.2703-2.88500.4482-2.91531.36482.37693.31510.87453.19001.2608-2.2815-6.68471.87382.4093-2.9033-5.33326.1506-8.4386-6.79793.1428-0.0135-10.8942-9.63337.231112.06932.31305.22110.01552.94310.3135-6.4017-0.89870.19763.25270.1444-3.6517-1.63393.55052.48131.7880>>theta1=net.b{1}theta1=0.5955-5.4876-9.8986-4.47313.6523-4.03715.61875.74260.9147-8.5523-2.3632-5.6106>>{2,1}w2=Columns1through8-0.2751-3.5658-2.3689-6.4192-1.12091.5711-1.76157.6202-1.2874-9.1588-14.45337.50643.70740.90198.7033-5.00313.3536-0.88447.88870.93360.8410-2.49051.0627-9.3513Columns9through12-2.5894-1.9950-3.0132-4.700913.3490-9.8521-4.6680-4.2037-5.92512.9388-1.6797-2.1077>>theta2=net.b{2}theta2=-2.47620.56920.6694输出:out=Columns1through81.00001.00000.00200.00001.00001.00000.00000.00001.00000.00000.00411.00001.00001.00001.00001.00000.99910.00000.00360.00150.99920.99850.00550.0036Columns9through161.00000.00000.00191.00000.00000.00000.00000.99961.00001.00000.99011.00001.00001.00001.00000.00000.99770.99990.99960.99940.00460.00230.00141.0000Columns17through240.00200.99250.00200.00000.00201.00000.00021.00000.00410.02840.00410.02840.00411.00000.99831.00000.00360.99550.00361.00000.00360.99890.99990.9990Columns25through321.00000.99381.00000.00001.00000.99990.00001.00001.00000.01770.00000.00211.00000.00061.00001.00000.00000.99710.00001.00000.00000.00040.99990.0000Columns33through400.99541.00000.00000.00000.99510.00200.00000.99970.00651.00001.00000.00250.01780.00411.00000.00000.99860.99900.99991.00000.01010.00360.00131.0000Columns41through480.00001.00000.99830.00000.00201.00000.00000.98730.00201.00000.00000.00370.00411.00000.03280.06371.00000.00000.99991.00000.00360.99821.00000.9884Columns49through560.00000.00011.00001.00001.00000.00000.00041.00000.01640.99920.99821.00001.00001.00000.99650.99981.00000.99990.99480.99910.99890.00240.99980.9968Columns57through641.00001.00000.00000.00200.00200.00010.00010.00000.97631.00000.01340.00410.00410.99900.03950.00170.02020.99881.00000.00360.00360.99990.99991.0000Columns65through700.99930.00000.00000.99781.00001.00000.00000.00180.01100.00011.00000.99981.00001.00001.00000.99990.99870.0007每次结果因为初始化不同会不一样,可以选取一个性能比较好的网络保持起来savemyBpNetnetsaveTestDataInTestDataOut测试数据也保存起来(TestDataInTestDataOut为测试数据的输入向量和目标向量)以后调用时loadloadmyBpNetnetout=sim(net,TestDataIn)基本框架程序:(前面的样本数据自己根据实际情况设计)load('');p=CC1(:,[1,3:6])';T=[000;111;110;101;100;011;010;001];t=repmat(T,41,1)';pp=p;%%%%%%归一到01之间fori=1:5p(i,:)=(p(i,:)-min(p(i,:)))/(max(p(i,:))-min(p(i,:)));endAllSamNum=328;%总样本数TrainSamNum=258;%训练样本数TestSamNum=AllSamNum-TrainSamNum;%测试样本数PerPos=randperm(AllSamNum);TrainDataIn=p(:,1:TrainSamNum)TrainDataOut=t(:,1:TrainSamNum)TestDataIn=p(:,PerPos(:,TrainSamNum+1:TrainSamNum+TestSamNum))TestDataOut=t(:,PerPos(:,TrainSamNum+1:TrainSamNum+TestSamNum))MaxMin=[01;01;01;01;01];net=newff(MaxMin,[12,3],{'tansig','logsig'},'trainlm');net.trainParam.epochs=1000;%训练次数=0.0001;%训练结束的目标=0.1;%学习率=20;net=train(net,TrainDataIn,TrainDataOut);out=sim(net,TestDataIn)。

在神经网络模型中,如果学习样本全是X类的,但是在测试样本中含有Y类的,如何识别出来?

帮忙编写一个带混沌的hopfield神经网络,我有数据样本和测试样本 50

研究Hopfield神经网络的特点,并结合进化算法或启发式算法,设计出一个基于Hopfield神经网络的混合分类算法,并在实际数据集进行验证,以期提出的算法既具有一定鲁棒性,又要具有较高的分类精度,并且能够充分发挥Hopfield神经网络的自联想特性,具有较好的容错性和普适性。

【关键词】Hopfield神经网络;粒子群优化算法;自联想特性随着信息产业的普及,数据存储的增大,数据挖掘技术作为一种前沿技术,越来越受到人们的重视。

分类算法作为一种重要的数据挖掘算法,在各个领域中都有着重要的应用。

本文采用BV算法,一定程度上克服了离散型Hopfield神经网络本身所具有的局限性,并且保留了其在自联想等方面的优点,设计出带有粒子群优化过程的Hopfield分类算法(下文简称PSO-HOP算法)。

1数据预处理使用离散型Hopfield神经网络进行分类首先就要解决如何在神经网络中反映各个属性值及类标号的问题。2Hopfield训练过程。

python进行bp神经网络训练时有没有区分训练和测试样本

神经网络测试样本的选择,如何测试神经网络模型相关推荐

  1. 神经网络测试结果很差,该怎么做

    神经网络测试结果很差,该怎么做 当我们编程实现了神经网络模型,将模型用于测试集时,经常会发现测试的准确率非常的低,神经网络层数很深,通常我们不容易判断具体的梯度下降求解参数的过程,那我们该怎么办呢?从 ...

  2. 神经网络优化器的选择_神经网络:优化器选择的重要性

    神经网络优化器的选择 When constructing a neural network, there are several optimizers available in the Keras A ...

  3. 解决卷积神经网络测试集正确率低

    解决卷积神经网络测试集正确率低 问题描述 可能的原因 最终的原因 结论 问题描述 在运用卷积神经网络进行图像识别的过程中,将数据集分为训练集与验证集,首先进行模型的训练,最终模型在训练集与验证集上的正 ...

  4. PACE——深度神经网络测试的实用准确度估计方法

    PACE 是论文<Practical Accuracy Estimation for Efficient Deep Neural Network Testing>中提出的一种用于DNN测试 ...

  5. 实时检测神经振荡可实现行为相关的神经反馈

    目录 本分享为脑机学习者Rose整理发表于公众号:脑机接口社区 QQ交流群:941473018 神经振荡-也称脑电波,是大脑中重要的信息载体,越来越多的研究者将它们解释为瞬态脉冲而不是持续的振荡.短脉 ...

  6. 一文看懂推荐系统:召回07:双塔模型——正负样本的选择,召回的目的是区分感兴趣和不感兴趣的,精排是区分感兴趣和非常感兴趣的

    一文看懂推荐系统:召回07:双塔模型--正负样本的选择,召回的目的是区分感兴趣和不感兴趣的,精排是区分感兴趣和非常感兴趣的 提示:最近系统性地学习推荐系统的课程.我们以小红书的场景为例,讲工业界的推荐 ...

  7. R语言构建logistic回归模型并评估模型:构建基于混淆矩阵计算分类评估指标的自定义函数、阳性样本比例(垃圾邮件比例)变化对应的分类器性能的变化、基于数据阳性样本比例选择合适的分类评估指标

    R语言构建logistic回归模型并评估模型:构建基于混淆矩阵计算分类评估指标的自定义函数.阳性样本比例(垃圾邮件比例)变化对应的分类器性能的变化.基于数据阳性样本比例选择合适的分类评估指标 目录

  8. 【视觉项目】【day5】8.25号实验记录(修完BUG,28张测试图,13个样本,四张测试图误判,这比之前效果好很多了)

    目录 修改完BUG后的程序以及效果 优化思路,增强正确识别率(待验证) 修改完BUG后的程序以及效果 修改代码后的测试结果:(利用连通域面积将明显比本张测试图的瓶子要小的模板提前去除,减少误判) 这样 ...

  9. 总结论文中正负样本的选择

    对正负样本的选择 1.ssd:设置一个阈值(0.5),大于这个阈值的框为正样本,其它框作为负样本鉴定为背景.但是负样本还是远大于正样本,因此采用了难样本挖掘.难样本挖掘的具体操作是计算出所以负样本的损 ...

  10. 神经网络测试集loss不变_神经网络训练过程中不收敛或者训练失败的原因

    在面对模型不收敛的时候,首先要保证训练的次数够多.在训练过程中,loss并不是一直在下降,准确率一直在提升的,会有一些震荡存在.只要总体趋势是在收敛就行.若训练次数够多(一般上千次,上万次,或者几十个 ...

最新文章

  1. 通过WebAssembly在浏览器运行PHP
  2. opencv 头盔检测
  3. 深度学习入门课程学习笔记06 反向传播
  4. java和python的web自动化有什么区别-Java Web开发和Python Web开发之间的区别
  5. 关于算法的时间复杂度怎么计算
  6. insert exec 语句不能嵌套_走向DBA「MSSQL篇」 - 从SQL语句的角度提高数据库的访问性能...
  7. Linux系统中查看图片信息
  8. Android 项目框架
  9. 《大道至简》第八章读后感
  10. OAuth和OpenID的区别(转)
  11. storagesky存储天地
  12. 传递json_开发技巧分享—JSON 数据格式及函数讲解
  13. Docker Hub 将放弃支持客户端 1.5 及以下版本
  14. 用python画椭圆解释_怎么用python画椭圆?
  15. dubbo-Instantiation of bean failed; nested exception is java.lang.ExceptionInInitializerError
  16. DataSet与DataTable与DataRow的关系
  17. 小米 12S Utra 莱卡水印生成在线工具
  18. 2.4g低功耗SI24R1校园答题器
  19. oracle怎么开启安全审计,安全审计产品:一项一项教你测等保2.0——Oracle安全审计...
  20. oracle获取最新的一条数据

热门文章

  1. 数据结构 停车场管理系统
  2. python英文词频统计软件_英语词频统计软件功能介绍
  3. EDU教育网邮箱申请注册享受Apple、微软、Github等产品教育优惠附带各优惠申请教程
  4. python语言实现图像的手绘效果
  5. 数据库范式(第一范式 第二范式 第三范式 BCNF范式)
  6. Python美股量化交易填坑记录——13a.Vegas隧道交易机器人
  7. 蓝桥杯青少年创意编程大赛题解:STEMA
  8. 用数字计算机公式表白,数学计算题表白公式
  9. 【笔记】Python脚本:绘制表格转为图片发送
  10. Linux内核私闯进程地址空间并修改进程内存