基于白鲸优化算法的函数寻优算法
文章目录
- 一、理论基础
- 1、白鲸优化算法
- (1)探索阶段
- (2)开发阶段
- (3)鲸落
- 2、BWO算法流程图
- 二、仿真实验与结果分析
- 三、参考文献
一、理论基础
1、白鲸优化算法
文献[1]从白鲸的行为出发,提出了一种新的基于种群的元启发式算法,称为白鲸优化(Beluga whale optimization, BWO)算法,用于求解优化问题。BWO建立了探索、开发和鲸鱼坠落的三个阶段,分别对应于成对游泳、捕食和鲸落的行为。BWO中的平衡因子和鲸落概率是自适应的,对控制探索和开发能力起着重要作用。此外,还引入了莱维飞行来增强开发阶段的全局收敛性。
由于BWO基于种群的机制,白鲸被视为搜索代理,而每头白鲸都是候选解,在优化过程中更新。搜索代理位置矩阵建模为:X=[x1,1x1,2⋯x1,dx2,1x2,2⋯x2,d⋮⋮⋮⋮xn,1xn,2⋯xn,d](1)X=\begin{bmatrix}x_{1,1} & x_{1,2} & \cdots & x_{1,d} \\x_{2,1} & x_{2,2} & \cdots & x_{2,d} \\\vdots & \vdots & \vdots & \vdots \\x_{n,1} & x_{n,2} & \cdots & x_{n,d} \end{bmatrix}\tag{1}X=⎣⎢⎢⎢⎡x1,1x2,1⋮xn,1x1,2x2,2⋮xn,2⋯⋯⋮⋯x1,dx2,d⋮xn,d⎦⎥⎥⎥⎤(1)其中,nnn是白鲸的种群数量,ddd代表问题变量的维数。对于所有白鲸,相应的适应度值存储如下:FX=[f(x1,1,x1,2,⋯,x1,d)f(x2,1,x2,2,⋯,x2,d)⋮f(xn,1,xn,2,⋯,xn,d)](2)F_X=\begin{bmatrix}f(x_{1,1},x_{1,2},\cdots,x_{1,d}) \\f(x_{2,1},x_{2,2},\cdots,x_{2,d})\\\vdots\\f(x_{n,1},x_{n,2},\cdots,x_{n,d}) \end{bmatrix}\tag{2}FX=⎣⎢⎢⎢⎡f(x1,1,x1,2,⋯,x1,d)f(x2,1,x2,2,⋯,x2,d)⋮f(xn,1,xn,2,⋯,xn,d)⎦⎥⎥⎥⎤(2)BWO算法可以从探索逐渐转换到开发,这取决于平衡因子BfB_fBf,其定义为:Bf=B0(1−T/(2Tmax))(3)B_f=B_0(1-T/(2T_{\max}))\tag{3}Bf=B0(1−T/(2Tmax))(3)其中,TTT是当前迭代次,TmaxT_{\max}Tmax是最大迭代次数,B0B_0B0在每次迭代中在(0,1)(0,1)(0,1)之间随机变化。探索阶段发生在平衡因子Bf>0.5B_f>0.5Bf>0.5时,而开发阶段发生在Bf≤0.5B_f\leq0.5Bf≤0.5。随着迭代次数TTT的增加,BfB_fBf的波动范围从(0,1)(0,1)(0,1)减小到(0,0.5)(0,0.5)(0,0.5),说明开发和探索阶段的概率发生了显著变化,而开发阶段的概率随着迭代次数TTT的不断增加而增加。
(1)探索阶段
BWO的探索阶段是通过考虑白鲸的游泳行为建立的。搜索代理的位置由白鲸的配对游泳决定,白鲸的位置更新如下:{Xi,jT+1=Xi,pjT+(Xr,p1T−Xi,pjT)(1+r1)sin(2πr2),j=evenXi,jT+1=Xi,pjT+(Xr,p1T−Xi,pjT)(1+r1)cos(2πr2),j=odd(4)\begin{dcases}X_{i,j}^{T+1}=X_{i,p_j}^T+\left(X_{r,p_1}^T-X_{i,p_j}^T\right)(1+r_1)\sin(2\pi r_2),\quad j=even\\[2ex]X_{i,j}^{T+1}=X_{i,p_j}^T+\left(X_{r,p_1}^T-X_{i,p_j}^T\right)(1+r_1)\cos(2\pi r_2),\quad j=odd\end{dcases}\tag{4}⎩⎪⎨⎪⎧Xi,jT+1=Xi,pjT+(Xr,p1T−Xi,pjT)(1+r1)sin(2πr2),j=evenXi,jT+1=Xi,pjT+(Xr,p1T−Xi,pjT)(1+r1)cos(2πr2),j=odd(4)其中,TTT是当前迭代次数,Xi,jT+1X_{i,j}^{T+1}Xi,jT+1是第iii条白鲸在第jjj维上的新位置,pj(j=1,2,⋯,d)p_j(j=1,2,\cdots,d)pj(j=1,2,⋯,d)是从ddd维中选择的随机整数,Xi,pjTX_{i,p_j}^{T}Xi,pjT是第iii条白鲸在pjp_jpj维度上的位置,Xi,pjTX_{i,p_j}^{T}Xi,pjT和Xr,p1TX_{r,p_1}^{T}Xr,p1T分别是第iii条和第rrr条白鲸的当前位置(rrr是随机选择的白鲸),r1r_1r1和r2r_2r2是(0,1)(0,1)(0,1)的随机数,sin(2πr2)\sin(2\pi r_2)sin(2πr2)和sin(2πr2)\sin(2\pi r_2)sin(2πr2)表示镜像白鲸的鳍朝向水面。根据奇偶数选择的维数,更新后的位置反映了白鲸在游泳或跳水时的同步或镜像行为。两个随机数r1r_1r1和r2r_2r2用于增强探索阶段的随机算子。
(2)开发阶段
BWO的开发阶段受到白鲸捕食行为的启发。白鲸可以根据附近白鲸的位置合作觅食和移动。因此,白鲸通过共享彼此的位置信息来捕食,同时考虑最佳候选者和其他候选者。在BWO的开发阶段引入了莱维飞行策略,以增强收敛性。假设它们可以使用莱维飞行策略捕捉猎物,数学模型表示为:XiT+1=r3XbestT−r4XiT+C1⋅LF⋅(XrT−XiT)(5)X_i^{T+1}=r_3X_{best}^T-r_4X_i^T+C_1\cdot L_F\cdot\left(X_r^T-X_i^T\right)\tag{5}XiT+1=r3XbestT−r4XiT+C1⋅LF⋅(XrT−XiT)(5)其中,TTT是当前迭代次数,XiTX_i^TXiT和XrTX_r^TXrT分别是第iii条白鲸和随机白鲸的当前位置,XiT+1X_i^{T+1}XiT+1是第iii条白鲸的新位置,XbestTX_{best}^TXbestT是白鲸种群中的最佳位置,r3r_3r3和r4r_4r4是(0,1)(0,1)(0,1)之间的随机数,C1=2r4(1−T/Tmax)C_1=2r_4(1-T/T_{\max})C1=2r4(1−T/Tmax)是衡量莱维飞行强度的随机跳跃强度。
LFL_FLF是莱维飞行函数,计算如下:LF=0.05×u×σ∣v∣1/β(6)L_F=0.05\times\frac{u\times\sigma}{|v|^{1/\beta}}\tag{6}LF=0.05×∣v∣1/βu×σ(6)σ=(Γ(1+β)×sin(πβ/2)Γ((1+β)/2)×β×2(β−1)/2)1/β(7)\sigma=\left(\frac{\Gamma(1+\beta)\times\sin(\pi\beta/2)}{\Gamma((1+\beta)/2)\times\beta\times2^{(\beta-1)/2}}\right)^{1/\beta}\tag{7}σ=(Γ((1+β)/2)×β×2(β−1)/2Γ(1+β)×sin(πβ/2))1/β(7)其中,uuu和vvv为正态分布随机数,β\betaβ为默认常数,等于1.5。
(3)鲸落
为了在每次迭代中模拟鲸鱼坠落的行为,从种群中的个体中选择鲸鱼坠落的概率作为主观假设,以模拟群体中的小变化。假设这些白鲸要么移到别处,要么被击落并坠入深海。为了确保种群大小的数量恒定,使用白鲸的位置和鲸鱼落体的步长来建立更新的位置。数学模型表示为:XiT+1=r5XiT−r6XrT+r7Xstep(8)X_i^{T+1}=r_5X_i^T-r_6X_r^T+r_7X_{step}\tag{8}XiT+1=r5XiT−r6XrT+r7Xstep(8)其中,r5r_5r5、r6r_6r6和r7r_7r7是(0,1)(0,1)(0,1)之间的随机数,XstepX_{step}Xstep是鲸鱼坠落的步长,定义为:Xstep=(ub−lb)exp(−C2T/Tmax)(9)X_{step}=(u_b-l_b)\exp(-C_2T/T_{\max})\tag{9}Xstep=(ub−lb)exp(−C2T/Tmax)(9)其中,C2C_2C2是与鲸鱼下降概率和种群规模相关的阶跃因子(C2=2Wf×nC_2=2W_f\times nC2=2Wf×n),ubu_bub和lbl_blb分别是变量的上下限。可以看出,步长受问题变量边界、当前迭代次数和最大迭代次数的影响。
在该模型中,鲸鱼坠落概率(WfW_fWf)作为线性函数计算:Wf=0.1−0.05T/Tmax(10)W_f=0.1-0.05T/T_{\max}\tag{10}Wf=0.1−0.05T/Tmax(10)鲸鱼坠落的概率从初始迭代的0.1降低到最后一次迭代的0.05,表明在优化过程中,当白鲸更接近食物源时,白鲸的危险性降低。
2、BWO算法流程图
根据之前的理论,BWO包括三个主要阶段:模拟游泳行为的探索阶段,模仿捕食行为的开发阶段,以及受白鲸坠落启发的鲸鱼坠落阶段。在优化过程中,在每次迭代中完成探索阶段和开发阶段时,将执行鲸鱼坠落阶段。BWO算法的流程图如图1所示。
图1 BWO算法伪代码
二、仿真实验与结果分析
将BWO与PSO、AOA、GSA、GWO、HHO、TLBO和WOA进行对比,以文献[1]中表1和表2的F4、F5、F6、F7(单峰函数/30维)、F13、F14(多峰函数/30维)、F21、F22(固定维度多峰函数/2维、4维)为例,实验设置种群规模为50,最大迭代次数为1000,每种算法独立运算30次,结果显示如下:
函数:F4
BWO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
PSO:最差值: 752.8063, 最优值: 214.8991, 平均值: 414.1921, 标准差: 134.6102, 秩和检验: 1.2118e-12
AOA:最差值: 0.0060669, 最优值: 0, 平均值: 0.00033737, 标准差: 0.0013108, 秩和检验: 6.247e-10
GSA:最差值: 550.6107, 最优值: 107.2335, 平均值: 256.449, 标准差: 109.0837, 秩和检验: 1.2118e-12
GWO:最差值: 6.4412e-18, 最优值: 4.2628e-26, 平均值: 2.5988e-19, 标准差: 1.1717e-18, 秩和检验: 1.2118e-12
HHO:最差值: 1.5056e-153, 最优值: 1.2166e-189, 平均值: 5.0185e-155, 标准差: 2.7488e-154, 秩和检验: 1.2118e-12
TLBO:最差值: 4.2094e-235, 最优值: 2.3088e-239, 平均值: 2.9163e-236, 标准差: 0, 秩和检验: 1.2118e-12
WOA:最差值: 31345.6497, 最优值: 93.0914, 平均值: 11833.1551, 标准差: 8066.9687, 秩和检验: 1.2118e-12
函数:F5
BWO:最差值: 1.9396e-253, 最优值: 1.2793e-261, 平均值: 1.2476e-254, 标准差: 0, 秩和检验: 1
PSO:最差值: 19.5402, 最优值: 4.7078, 平均值: 9.6069, 标准差: 3.1938, 秩和检验: 3.0199e-11
AOA:最差值: 0.044329, 最优值: 2.2557e-182, 平均值: 0.0087681, 标准差: 0.015974, 秩和检验: 3.0199e-11
GSA:最差值: 0.62272, 最优值: 2.2655e-09, 平均值: 0.020757, 标准差: 0.11369, 秩和检验: 3.0199e-11
GWO:最差值: 5.331e-17, 最优值: 4.8381e-19, 平均值: 1.1648e-17, 标准差: 1.4123e-17, 秩和检验: 3.0199e-11
HHO:最差值: 3.8924e-95, 最优值: 1.9819e-108, 平均值: 1.3605e-96, 标准差: 7.098e-96, 秩和检验: 3.0199e-11
TLBO:最差值: 2.7918e-112, 最优值: 1.5435e-115, 平均值: 1.6526e-113, 标准差: 5.0994e-113, 秩和检验: 3.0199e-11
WOA:最差值: 86.6138, 最优值: 0.0081821, 平均值: 26.7168, 标准差: 27.1796, 秩和检验: 3.0199e-11
函数:F6
BWO:最差值: 6.206e-14, 最优值: 3.6684e-19, 平均值: 3.7484e-15, 标准差: 1.2736e-14, 秩和检验: 1
PSO:最差值: 735.448, 最优值: 77.5689, 平均值: 352.8469, 标准差: 173.3463, 秩和检验: 3.0199e-11
AOA:最差值: 28.8842, 最优值: 27.2905, 平均值: 27.9859, 标准差: 0.44877, 秩和检验: 3.0199e-11
GSA:最差值: 163.9406, 最优值: 25.7558, 平均值: 36.6019, 标准差: 33.2075, 秩和检验: 3.0199e-11
GWO:最差值: 28.5291, 最优值: 25.0965, 平均值: 26.6803, 标准差: 0.76805, 秩和检验: 3.0199e-11
HHO:最差值: 0.0073894, 最优值: 3.2e-06, 平均值: 0.0012758, 标准差: 0.0019969, 秩和检验: 3.0199e-11
TLBO:最差值: 28.9443, 最优值: 28.8527, 平均值: 28.9022, 标准差: 0.026154, 秩和检验: 3.0199e-11
WOA:最差值: 27.0758, 最优值: 26.0243, 平均值: 26.5589, 标准差: 0.30841, 秩和检验: 3.0199e-11
函数:F7
BWO:最差值: 4.1828e-27, 最优值: 2.0954e-30, 平均值: 2.5583e-28, 标准差: 7.5215e-28, 秩和检验: 1
PSO:最差值: 19.3792, 最优值: 2.655, 平均值: 9.3548, 标准差: 4.7822, 秩和检验: 3.0199e-11
AOA:最差值: 2.9138, 最优值: 1.8356, 平均值: 2.4748, 标准差: 0.25303, 秩和检验: 3.0199e-11
GSA:最差值: 3.8873e-17, 最优值: 9.0711e-18, 平均值: 2.0446e-17, 标准差: 6.78e-18, 秩和检验: 3.0199e-11
GWO:最差值: 0.75858, 最优值: 9.435e-06, 平均值: 0.37809, 标准差: 0.27301, 秩和检验: 3.0199e-11
HHO:最差值: 5.0413e-05, 最优值: 9.5991e-08, 平均值: 1.0241e-05, 标准差: 1.2227e-05, 秩和检验: 3.0199e-11
TLBO:最差值: 6.7383, 最优值: 3.1803, 平均值: 5.1151, 标准差: 0.92889, 秩和检验: 3.0199e-11
WOA:最差值: 0.012066, 最优值: 0.0016714, 平均值: 0.0044716, 标准差: 0.0021948, 秩和检验: 3.0199e-11
函数:F13
BWO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
PSO:最差值: 67.4637, 最优值: 26.2061, 平均值: 44.7766, 标准差: 10.6501, 秩和检验: 1.2118e-12
AOA:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
GSA:最差值: 31.8387, 最优值: 7.9597, 平均值: 17.7766, 标准差: 5.7882, 秩和检验: 1.2088e-12
GWO:最差值: 6.2044, 最优值: 0, 平均值: 0.35312, 标准差: 1.3648, 秩和检验: 0.081523
HHO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
TLBO:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
WOA:最差值: 0, 最优值: 0, 平均值: 0, 标准差: 0, 秩和检验: NaN
函数:F14
BWO:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
PSO:最差值: 4.9853, 最优值: 2.4299, 平均值: 3.6859, 标准差: 0.67742, 秩和检验: 1.2118e-12
AOA:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
GSA:最差值: 4.5756e-09, 最优值: 2.5861e-09, 平均值: 3.6057e-09, 标准差: 5.1103e-10, 秩和检验: 1.2118e-12
GWO:最差值: 1.5099e-14, 最优值: 7.9936e-15, 平均值: 1.3323e-14, 标准差: 2.5973e-15, 秩和检验: 4.3542e-13
HHO:最差值: 8.8818e-16, 最优值: 8.8818e-16, 平均值: 8.8818e-16, 标准差: 0, 秩和检验: NaN
TLBO:最差值: 4.4409e-15, 最优值: 8.8818e-16, 平均值: 4.3225e-15, 标准差: 6.4863e-16, 秩和检验: 1.1651e-13
WOA:最差值: 7.9936e-15, 最优值: 8.8818e-16, 平均值: 4.204e-15, 标准差: 2.0723e-15, 秩和检验: 7.7452e-10
函数:F21
BWO:最差值: -1.0315, 最优值: -1.0316, 平均值: -1.0316, 标准差: 4.4466e-05, 秩和检验: 1
PSO:最差值: -1.0316, 最优值: -1.0316, 平均值: -1.0316, 标准差: 6.7122e-16, 秩和检验: 1.7203e-12
AOA:最差值: -1.0316, 最优值: -1.0316, 平均值: -1.0316, 标准差: 6.2926e-08, 秩和检验: 3.0199e-11
GSA:最差值: -1.0316, 最优值: -1.0316, 平均值: -1.0316, 标准差: 5.6082e-16, 秩和检验: 1.4059e-11
GWO:最差值: -1.0316, 最优值: -1.0316, 平均值: -1.0316, 标准差: 2.4521e-09, 秩和检验: 3.0199e-11
HHO:最差值: -1.0316, 最优值: -1.0316, 平均值: -1.0316, 标准差: 1.4742e-12, 秩和检验: 2.9673e-11
TLBO:最差值: -1.0316, 最优值: -1.0316, 平均值: -1.0316, 标准差: 6.7752e-16, 秩和检验: 1.2118e-12
WOA:最差值: -1.0316, 最优值: -1.0316, 平均值: -1.0316, 标准差: 1.4986e-11, 秩和检验: 3.0199e-11
函数:F22
BWO:最差值: -10.1532, 最优值: -10.1532, 平均值: -10.1532, 标准差: 7.743e-07, 秩和检验: 1
PSO:最差值: -2.6305, 最优值: -10.1532, 平均值: -6.7269, 标准差: 3.3781, 秩和检验: 0.6618
AOA:最差值: -2.0629, 最优值: -6.4671, 平均值: -3.7606, 标准差: 0.9115, 秩和检验: 3.0199e-11
GSA:最差值: -5.0552, 最优值: -5.0552, 平均值: -5.0552, 标准差: 9.0336e-16, 秩和检验: 1.2118e-12
GWO:最差值: -5.0552, 最优值: -10.1531, 平均值: -9.1363, 标准差: 2.0678, 秩和检验: 3.0199e-11
HHO:最差值: -5.0552, 最优值: -10.1531, 平均值: -5.395, 标准差: 1.2933, 秩和检验: 3.0199e-11
TLBO:最差值: -5.0552, 最优值: -10.1532, 平均值: -8.4539, 标准差: 2.4443, 秩和检验: 0.024923
WOA:最差值: -2.6305, 最优值: -10.1532, 平均值: -9.5618, 标准差: 1.839, 秩和检验: 3.0199e-11
实验结果表明:BWO算法可以提供良好的能力来平衡探索和开发阶段,以确保全局收敛,且在单峰和多峰函数方面表现良好,尤其是在可扩展性分析方面表现突出,并为复合函数提供了竞争力。
三、参考文献
[1] Changting Zhong, Gang Li, Zeng Meng. Beluga whale optimization: A novel nature-inspired metaheuristic algorithm[J]. Knowledge-Based Systems, 2022, 251: 109215.
基于白鲸优化算法的函数寻优算法相关推荐
- 基于蚁群算法的函数寻优算法
文章目录 一.理论基础 二.案例背景 1.问题描述 2.解题思路及步骤 三.MATLAB程序实现 1.清空环境变量 2.初始化参数 3.构建解空间和目标函数 4.迭代寻优 5.结果显示 6.绘图 四. ...
- 基于白骨顶鸡优化算法的函数寻优算法
文章目录 一.理论基础 1.白骨顶鸡优化算法 1.1 个体随机运动 1.2 链式运动 1.3 最优个体引导运动 1.3.1 根据组长调整位置 1.3.2 领导者引领团队走向最佳区域(领导运动) 2.C ...
- 基于沙猫群优化算法的函数寻优算法
文章目录 一.理论基础 1.沙猫群优化算法 (1)初始化种群 (2)搜索猎物(探索) (3)攻击猎物(开发) (4)探索和开发 2.SCSO算法伪代码 二.仿真实验与结果分析 三.参考文献 一.理论基 ...
- 基于蜉蝣优化算法的函数寻优算法
文章目录 一.理论基础 1.蜉蝣优化算法 (1)雄性蜉蝣的更新 (2)雌性蜉蝣的更新 (3)蜉蝣的交配过程 2.MA算法伪代码 二.仿真实验与结果分析 1.函数测试与数值分析 2.WSN三维覆盖优化 ...
- 基于金豺优化算法的函数寻优算法
文章目录 一.理论基础 1.金豺优化算法 (1)搜索空间公式 (2)探索阶段或搜索猎物 (3)开发阶段或围捕和突袭猎物 (4)从探索转向开发 2.GJO伪代码 二.仿真实验与结果分析 三.参考文献 一 ...
- 基于果蝇优化算法的函数寻优算法
文章目录 一.理论基础 二.算法步骤 1.启发 2.方向和距离 3.气味浓度判断值 4.适应度评估 5.寻找最优个体 6.飞行 7.迭代优化 三.案例背景 问题描述 四.MATLAB程序实现 1.清空 ...
- 基于蜂鸟优化算法的函数寻优算法
文章目录 一.理论基础 1.自搜索阶段 2.引导搜索阶段 3.HOA伪代码 二.仿真实验与分析 三.参考文献 一.理论基础 蜂鸟优化算法(Hummingbirds optimization algor ...
- 基于藤壶交配优化算法的函数寻优算法
文章目录 一.理论基础 1.藤壶交配优化算法 1.1 哈迪-温伯格(Hardy-Weinberg)法则 1.2 BMO 1.2.1 初始化 1.2.2 选择过程 1.2.3 繁殖 2.BMO算法伪代码 ...
- 基于阿基米德优化算法的函数寻优算法
文章目录 一.理论基础 1.算法步骤 (1)初始化 (2)更新密度和体积 (3)转移算子与密度算子 (4)勘探阶段 <1> 物体之间发生碰撞 <2> 物体之间无碰撞 <3 ...
最新文章
- 使用二维高斯函数模糊图片
- Tomcat虚拟主机配置
- python多线程下载ts_基于Python的ERA-5多线程下载(1)
- Java源码分析:深入探讨Iterator模式
- CMOS图像传感器——TDI CIS
- pythonhtml生成word_python如何实现word批量转HTML
- android udt协议,接口和软件包 | Android 开源项目 | Android Open Source Project
- 【Step1】【二分图匹配】poj 1274-The Perfect Stall
- mysql出现error 2003_mysql启动时出现ERROR 2003 (HY000)问题的解决方法
- 1.Yii2 -- Controller, Request, Response, Cookie, Session
- Linux Vue环境搭建
- Keil(C51)的安装与注册
- Sublime Text新增GBK编码支持
- 波浪谱 matlab画,matlab窄带随机过程
- 被遗忘的艺术:图的思维方式
- vue-webpack.config使用七牛云cdn镜像加速
- 基于JavaSwing开发麻雀捉小鸡游戏+论文: (大作业/毕业设计)
- 水平垂直分割详细介绍
- C语言数组的创建初始化以及使用
- dinic算法 c 语言,网络流入门—用于最大流的Dinic算法
热门文章
- CI/CD---使用新版云效流水线自动部署Java项目
- 软件设计——云原生12要素
- 判断多边形边界曲线顺/逆时针 两种方法
- python中pd是什么意思_python pd
- CUDA页锁定内存(Pinned Memory)
- 机器学习实战—逻辑回归—信用卡欺诈检测
- Python 中 ‘unicodeescape’ codec can’t decode bytes in position XXX: trun错误解决方案
- FreeRTOS学习笔记(10)——中断管理
- Day06(上)C++继承和派生
- PHPAdmin删除外键约束