本文首发于公众号:医学和生信笔记,完美观看体验请至公众号查看本文。


文章目录

  • 演示数据
  • Dummy Coding
  • simple coding
  • Deviation coding
  • Orthogonal Polynomial Coding
  • Helmert Coding
  • Reverse Helmert Coding
  • Forward Difference Coding
  • Backward Difference Coding
  • 参考资料

R语言中的分类变量在进行回归分析时,通常会进行一些编码设置,最常见的是哑变量设置,除了哑变量,还有其他的很多类型。

**通常一个有K个类别的分类变量在进入回归分析时,会被自动编码成K-1个序列,然后会得到K-1个回归系数,这些回归系数对应着因变量根据K个类别分组后计算的平均值!**这样说起来非常抽象,下面对着例子看可能更简单一点。

R中的这些编码方案又叫做比较(contrast)矩阵设计,虽然都是默认自动进行的,但是了解它们的工作方式可以帮助我们更好的理解背后的意义,以及如何自定义设置各种方案。比如我们在做逻辑回归时哑变量的设置是如何进行的,重复测量方差分析多重比较中contrast是怎样设置的等。

演示数据

使用hsb2数据集进行演示。其中write是数值型因变量,race是其中一个自变量,是无序分类变量,有4个类别:1 = Hispanic, 2 = Asian, 3 = African American and 4 = Caucasian。

load(file = "codingSchemes.rdata")# 把race变为因子型,并放到新的一列中
hsb2$race.f <- factor(hsb2$race, labels=c("Hispanic", "Asian", "African-Am", "Caucasian"))# 根据race.f进行分组,计算分组后因变量write的均值
tapply(hsb2$write, hsb2$race.f, mean)
##   Hispanic      Asian African-Am  Caucasian
##   46.45833   58.00000   48.20000   54.05517

记住这个均值,很重要,后面要用的!

Dummy Coding

哑变量是最常见的分类变量编码方式,它以其中一个类别为参考,其他所有类别都和参考进行比较。比如,我们设定race中的1为参考,2,3,4都和1进行比较,也就是race=1时,write的均值。

这也是R语言中数值型和无序因子型变量的默认编码方式,如果要手动设置,可以使用函数contr.treatment(),这个函数就是手动进行哑变量设置的函数。

contr.treatment(4)
##   2 3 4
## 1 0 0 0
## 2 1 0 0
## 3 0 1 0
## 4 0 0 1

这是一个比较矩阵,如果有4个类别就是4行,每行代表一个类别,比如第一行,2,3,4都是0,那么就代表类别1,;第二行,2是1,3,4都是0,就是代表类别2,以此类推。

如果有K个类别,就会有K-1个哑变量,比如我们这个例子,有4个类别,就有3个哑变量,在R中的其他编码方式也是这样的。

R语言中对不同类型的变量都会有默认的编码方式,可以通过contrasts()函数查看,比如对于race.f默认的就是哑变量编码:

# 和上面的比较矩阵一模一样的形式
contrasts(hsb2$race.f)
##            Asian African-Am Caucasian
## Hispanic       0          0         0
## Asian          1          0         0
## African-Am     0          1         0
## Caucasian      0          0         1

在前面介绍logistic回归时,多次使用过哑变量编码的方式,因为是默认的,所以并不用手动设置!

手动设置也可以,和默认是一样的结果,现在我们定义race.f这个变量进入回归模型后使用哑变量编码的方式:

# 手动定义变量的编码方式
contrasts(hsb2$race.f) <- contr.treatment(4)# 进行回归
summary(lm(write ~ race.f, data = hsb2))
##
## Call:
## lm(formula = write ~ race.f, data = hsb2)
##
## Residuals:
##      Min       1Q   Median       3Q      Max
## -23.0552  -5.4583   0.9724   7.0000  18.8000
##
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept)   46.458      1.842  25.218  < 2e-16 ***
## race.f2       11.542      3.286   3.512 0.000552 ***
## race.f3        1.742      2.732   0.637 0.524613
## race.f4        7.597      1.989   3.820 0.000179 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 9.025 on 196 degrees of freedom
## Multiple R-squared:  0.1071, Adjusted R-squared:  0.0934
## F-statistic: 7.833 on 3 and 196 DF,  p-value: 5.785e-05

可以看到结果中race.f2/race.f3/race.f4,都是和race.f1进行比较!和不设置的是一模一样的结果。

请注意它们的系数,比如race.f2的系数是11.542,这个系数就是根据race.f进行分组后,race.f=2时write的均值 减去 race.f=1时write的均值,也就是58-46.45833!intercept(截距)的系数就是参考组write的平均值46.45833!

哑变量编码后的数据进入回归分析时的具体操作可以这么理解,比如现在是race.f这个变量设置了哑变量编码的方式,那当它进入回归分析时,这一列就被我们设置的另外3列替代了,也就是原数据中的race.f这一列被另外3列哑变量替代了,当race.f这列的值是Hispanic时,3列哑变量就分别是0,0,0,如果race.f这列的值是Asian时,3列哑变量就分别是1,0,0,不知道大家理解了没有。

simple coding

简单编码和哑变量编码的唯一不同之处是截距!哑变量的截距是参考组的因变量平均值,简单编码的截距是总的平均值。

下面这张图是简单编码的方式。简单编码的所有类别编码相加需要等于1。

level 1还是参考组,对于race.f1,是类别2比类别1,类别2就被编码为3/4,其他类别都是 -1/4,对于race.f2是类别3比类别1,类别3就别编码为为3/4,其他类别被编码为 -1/4,对于race.f3是类别4比类别1,类别4别编码为3/4,其他类别被编码为 -1/4。

也就是说,参考组肯定是被编码为 -1/4(和类别个数有关,这里race.f是4个类别),谁和参考组比谁就被编码为 3/4。

如果变量有K个类别的话,那就是参考组被编码为 -1/k,谁和参考组比谁就被编码为(k-1)/k。

simple coding在R中并没有提供直接的函数,但是可以通过哑变量进行转换:

# 设置simple coding
c<-contr.treatment(4)
my.coding<-matrix(rep(1/4, 12), ncol=3)
my.simple<-c-my.coding
my.simple
##       2     3     4
## 1 -0.25 -0.25 -0.25
## 2  0.75 -0.25 -0.25
## 3 -0.25  0.75 -0.25
## 4 -0.25 -0.25  0.75
# 把race.f变成simple coding
contrasts(hsb2$race.f) <- my.simple# 进行回归
summary(lm(write ~ race.f, data = hsb2))
##
## Call:
## lm(formula = write ~ race.f, data = hsb2)
##
## Residuals:
##      Min       1Q   Median       3Q      Max
## -23.0552  -5.4583   0.9724   7.0000  18.8000
##
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept)  51.6784     0.9821  52.619  < 2e-16 ***
## race.f2      11.5417     3.2861   3.512 0.000552 ***
## race.f3       1.7417     2.7325   0.637 0.524613
## race.f4       7.5968     1.9889   3.820 0.000179 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 9.025 on 196 degrees of freedom
## Multiple R-squared:  0.1071, Adjusted R-squared:  0.0934
## F-statistic: 7.833 on 3 and 196 DF,  p-value: 5.785e-05

可以看到除了截距不一样,其他的系数都是一样的,这里的截距51.6784 = (46.45833 + 58 + 48.2 + 54.05517)/4 。

Deviation coding

这种编码方式比较的是某个类别的因变量的均值和其他所有类别的因变量的均值。它的比较矩阵是下面这种的。

第1组是比较类别1和其它所有类别,第2组是比较类别2和其它所有类别,第3组是比较类别3和其它所有类别。

这种比较矩阵(编码方式)通过赋值1,0,-1实现。第1组中,类别1被设为1(因为是类别1和其他所有类别比较),第2组是类别2被设为1,第3组是类别3倍设为1,而类别4一直是 -1,因为它没和别人比过。

在R中通过函数contr.sum()实现这种编码方式(比较矩阵):

contr.sum(4)
##   [,1] [,2] [,3]
## 1    1    0    0
## 2    0    1    0
## 3    0    0    1
## 4   -1   -1   -1

现在我们把race.f这个变量设置为deviation coding,再次进行回归分析:

contrasts(hsb2$race.f) <- contr.sum(4)summary(lm(write ~ race.f, data = hsb2))
##
## Call:
## lm(formula = write ~ race.f, data = hsb2)
##
## Residuals:
##      Min       1Q   Median       3Q      Max
## -23.0552  -5.4583   0.9724   7.0000  18.8000
##
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept)  51.6784     0.9821  52.619  < 2e-16 ***
## race.f1      -5.2200     1.6314  -3.200  0.00160 **
## race.f2       6.3216     2.1603   2.926  0.00384 **
## race.f3      -3.4784     1.7323  -2.008  0.04602 *
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 9.025 on 196 degrees of freedom
## Multiple R-squared:  0.1071, Adjusted R-squared:  0.0934
## F-statistic: 7.833 on 3 and 196 DF,  p-value: 5.785e-05

此时的截距是总的均值,也就是(46.4583 + 58 + 48.2 + 54.0552) / 4 = 51.678375,回归系数是相应类别的均值减去总的均值,比如race.f1的回归系数 -5.2200 = 46.4583 – 51.678375。

Orthogonal Polynomial Coding

正交多项式编码,在重复测量方差分析的多重比较中用过,这种编码方式常用于线性趋势检验,检测某自变量的1次项、2次项、3次项等和因变量之间有无线性关系。只用在有序分类变量(有序因子)且不同类别间对因变量影响相同的情况下。

在R语言中中通过函数contr.poly()实现对某个变量的正交多项式编码,对于有序因子变量来说,这种编码方式是默认的,不需要手动指定。

我们使用hsb2数据集中的read这一个变量,把它变成一个有序因子:

# 新建一列,根据read转换为有序因子
hsb2$readcat <- cut(hsb2$read, 4, ordered=T)
table(hsb2$readcat)
##
## (28,40] (40,52] (52,64] (64,76]
##      22      93      55      30tapply(hsb2$write, hsb2$readcat, mean)
##  (28,40]  (40,52]  (52,64]  (64,76]
## 42.77273 49.97849 56.56364 61.83333

contr.poly(4)
##              .L   .Q         .C
## [1,] -0.6708204  0.5 -0.2236068
## [2,] -0.2236068 -0.5  0.6708204
## [3,]  0.2236068 -0.5 -0.6708204
## [4,]  0.6708204  0.5  0.2236068

目前我们还未对readcat这个变量进行任何编码设置,但是R语言是有默认编码方式的,可以通过contrasts()查看:

# 发现默认就是正交多项式编码
contrasts(hsb2$readcat)
##              .L   .Q         .C
## [1,] -0.6708204  0.5 -0.2236068
## [2,] -0.2236068 -0.5  0.6708204
## [3,]  0.2236068 -0.5 -0.6708204
## [4,]  0.6708204  0.5  0.2236068

当然也可以手动设置:

contrasts(hsb2$readcat) <- contr.poly(4)summary(lm(write ~ readcat, data = hsb2))
##
## Call:
## lm(formula = write ~ readcat, data = hsb2)
##
## Residuals:
##     Min      1Q  Median      3Q     Max
## -18.979  -5.824   1.227   5.436  17.021
##
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept)  52.7870     0.6339  83.268   <2e-16 ***
## readcat.L    14.2587     1.4841   9.607   <2e-16 ***
## readcat.Q    -0.9680     1.2679  -0.764    0.446
## readcat.C    -0.1554     1.0062  -0.154    0.877
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 7.726 on 196 degrees of freedom
## Multiple R-squared:  0.3456, Adjusted R-squared:  0.3356
## F-statistic: 34.51 on 3 and 196 DF,  p-value: < 2.2e-16

回归分析结果显示readcat的一次项和因变量有很强的的线性关系,二次项和三次项没有明显的线性关系。

Helmert Coding

Helmert Coding比较的是当前类别下的因变量平均值和后面的类别的因变量平均值。

如上图所示,race.f1比较的是类别1的因变量平均值和类别2,3,4的因变量平均值,race.f2比较的是类别2的因变量平均值和类别3,4的因变量平均值,race.f3比较的是类别3的因变量平均值和类别4的因变量平均值。

R中提供了contr.helmert,但是对应的是 反helmert编码方式。所以如果想要对一个变量使用Helmert coding,需要手动设置:

my.helmert <- matrix(c(3/4, -1/4, -1/4, -1/4, 0, 2/3, -1/3, -1/3, 0, 0, 1/2, -1/2), ncol = 3)
my.helmert
##       [,1]       [,2] [,3]
## [1,]  0.75  0.0000000  0.0
## [2,] -0.25  0.6666667  0.0
## [3,] -0.25 -0.3333333  0.5
## [4,] -0.25 -0.3333333 -0.5

现在把race.f设置为Helmert coding:

contrasts(hsb2$race.f) <- my.helmertsummary(lm(write ~ race.f, hsb2))
##
## Call:
## lm(formula = write ~ race.f, data = hsb2)
##
## Residuals:
##      Min       1Q   Median       3Q      Max
## -23.0552  -5.4583   0.9724   7.0000  18.8000
##
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept)  51.6784     0.9821  52.619  < 2e-16 ***
## race.f1      -6.9601     2.1752  -3.200  0.00160 **
## race.f2       6.8724     2.9263   2.348  0.01985 *
## race.f3      -5.8552     2.1528  -2.720  0.00712 **
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 9.025 on 196 degrees of freedom
## Multiple R-squared:  0.1071, Adjusted R-squared:  0.0934
## F-statistic: 7.833 on 3 and 196 DF,  p-value: 5.785e-05

race.f1的回归系数 -6.9601 = 46.4583 – [(58 + 48.2 + 54.0552) / 3],也就是类别1的因变量平均值减去类别2,3,4的因变量平均值;race.f2race.f3的系数同理。

Reverse Helmert Coding

和Helmert Coding刚好完全相反,每一个类别和它前面的类别比较。

如下图所示,race.f1比较的是类别2的因变量平均值和类别1的因变量平均值,race.f2比较的是类别3的因变量平均值和类别1,2的因变量平均值,race.f3比较的是类别4的因变量平均值和类别1,2,3的因变量平均值。

R中提供了contr.helmert,可以进行Reverse Helmert Coding:

contr.helmert(4)
##   [,1] [,2] [,3]
## 1   -1   -1   -1
## 2    1   -1   -1
## 3    0    2   -1
## 4    0    0    3

race.f设置为这种编码方式再次进行回归分析:

contrasts(hsb2$race.f) <- contr.helmert(4)summary(lm(write ~ race.f, hsb2))
##
## Call:
## lm(formula = write ~ race.f, data = hsb2)
##
## Residuals:
##      Min       1Q   Median       3Q      Max
## -23.0552  -5.4583   0.9724   7.0000  18.8000
##
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept)  51.6784     0.9821  52.619  < 2e-16 ***
## race.f1       5.7708     1.6431   3.512 0.000552 ***
## race.f2      -1.3431     0.8675  -1.548 0.123170
## race.f3       0.7923     0.3720   2.130 0.034439 *
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 9.025 on 196 degrees of freedom
## Multiple R-squared:  0.1071, Adjusted R-squared:  0.0934
## F-statistic: 7.833 on 3 and 196 DF,  p-value: 5.785e-05

看完了上面那么多例子,这个回归系数的解读大家应该明白了吧,这里就不再赘述了。

Forward Difference Coding

这种编码方式比较的是当前类别的因变量均值和它相邻的下一个类别的因变量均值,注意是下一个,Helmert coding是多个。

如下图所示,race.f1比较的是类别1和类别2,race.f2比较的是类别2和3,race.f3`比较的是类别3和类别4。

R语言中并没有默认函数提供此类编码方式,需要手动设置。

my.forward.diff = matrix(c(3/4, -1/4, -1/4, -1/4, 1/2, 1/2, -1/2, -1/2, 1/
4, 1/4, 1/4, -3/4), ncol = 3)
my.forward.diff
##       [,1] [,2]  [,3]
## [1,]  0.75  0.5  0.25
## [2,] -0.25  0.5  0.25
## [3,] -0.25 -0.5  0.25
## [4,] -0.25 -0.5 -0.75

race.f设置为这种编码方式:

contrasts(hsb2$race.f) <- my.forward.diffsummary(lm(write ~ race.f, data = hsb2))
##
## Call:
## lm(formula = write ~ race.f, data = hsb2)
##
## Residuals:
##      Min       1Q   Median       3Q      Max
## -23.0552  -5.4583   0.9724   7.0000  18.8000
##
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept)  51.6784     0.9821  52.619  < 2e-16 ***
## race.f1     -11.5417     3.2861  -3.512 0.000552 ***
## race.f2       9.8000     3.3878   2.893 0.004251 **
## race.f3      -5.8552     2.1528  -2.720 0.007118 **
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 9.025 on 196 degrees of freedom
## Multiple R-squared:  0.1071, Adjusted R-squared:  0.0934
## F-statistic: 7.833 on 3 and 196 DF,  p-value: 5.785e-05

race.f1的截距是类别2和类别1的因变量差值, -11.5417 = 46.4583 – 58,race.f2的截距 是类别3和类别2的因变量差值,9.9 = 58 – 48.2,race.f3的截距是类别4和类别3的因变量差值,-5.8552 = 48.2 – 54.0552。

Backward Difference Coding

这种编码方式和前一种刚好相反,比较的是当前类别和它相邻的前一个类别的因变量均值。

在R语言中实现这种编码方式也是需要手动设置的:

my.backward.diff = matrix(c(-3/4, 1/4, 1/4, 1/4, -1/2, -1/2, 1/2, 1/2, -1/4, -1/4, -1/4, 3/4), ncol = 3)
my.backward.diff
##       [,1] [,2]  [,3]
## [1,] -0.75 -0.5 -0.25
## [2,]  0.25 -0.5 -0.25
## [3,]  0.25  0.5 -0.25
## [4,]  0.25  0.5  0.75
contrasts(hsb2$race.f) <- my.backward.diffsummary(lm(write ~ race.f, data = hsb2))
##
## Call:
## lm(formula = write ~ race.f, data = hsb2)
##
## Residuals:
##      Min       1Q   Median       3Q      Max
## -23.0552  -5.4583   0.9724   7.0000  18.8000
##
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)
## (Intercept)  51.6784     0.9821  52.619  < 2e-16 ***
## race.f1      11.5417     3.2861   3.512 0.000552 ***
## race.f2      -9.8000     3.3878  -2.893 0.004251 **
## race.f3       5.8552     2.1528   2.720 0.007118 **
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 9.025 on 196 degrees of freedom
## Multiple R-squared:  0.1071, Adjusted R-squared:  0.0934
## F-statistic: 7.833 on 3 and 196 DF,  p-value: 5.785e-05

此时的截距正负号刚好和上面一种情况相反。

这几种就是常见的R语言中分类变量的编码方式,除了这几个,大家还可以根据自己需要灵活手动设置。

大家以为这套规则只是R语言中独有的吗?并不是,在SPSS、SAS等软件中,分类变量的编码方式也是类似的!

这里只演示了线性回归的,logistic回归、cox回归也是类似的编码方案!

参考资料

  1. https://stats.oarc.ucla.edu/r/library/r-library-contrast-coding-systems-for-categorical-variables/

本文首发于公众号:医学和生信笔记,完美观看体验请至公众号查看本文。


R语言分类变量进行回归时的编码方案相关推荐

  1. r语言 分类变量 虚拟变量_R语言中的变量

    r语言 分类变量 虚拟变量 R语言| 变数 (R Language | Variables) In the previous tutorial, we have come across the bas ...

  2. R语言惩罚logistic逻辑回归(LASSO,岭回归)高维变量选择分类心肌梗塞数据模型案例...

    全文下载链接:http://tecdat.cn/?p=21444 在本文中,逻辑logistic回归是研究中常用的方法,可以进行影响因素筛选.概率预测.分类等,例如医学研究中高通里测序技术得到的数据给 ...

  3. R语言分类模型:逻辑回归模型LR、决策树DT、推理决策树CDT、随机森林RF、支持向量机SVM、Rattle可视化界面数据挖掘、分类模型评估指标(准确度、敏感度、特异度、PPV、NPV)

    R语言分类模型:逻辑回归模型LR.决策树DT.推理决策树CDT.随机森林RF.支持向量机SVM.Rattle可视化界面数据挖掘.分类模型评估指标(准确度.敏感度.特异度.PPV.NPV) 目录

  4. R语言glmnet拟合lasso回归模型实战:lasso回归模型的模型系数及可视化、lasso回归模型分类评估计算(混淆矩阵、accuracy、Deviance)

    R语言glmnet拟合lasso回归模型实战:lasso回归模型的模型系数(lasso regression coefficients)及可视化.lasso回归模型分类评估计算(混淆矩阵.accura ...

  5. R语言glmnet拟合岭回归模型实战:岭回归模型的模型系数(ridge regression coefficients)及可视化、岭回归模型分类评估计算(混淆矩阵、accuracy、Deviance)

    R语言glmnet拟合岭回归模型(ridge regression)实战:岭回归模型的模型系数(ridge regression coefficients)及可视化.岭回归模型分类评估计算(混淆矩阵. ...

  6. R语言glm拟合logistic回归模型实战:基于glm构建逻辑回归模型及模型系数统计显著性分析、每个预测因子对响应变量的贡献

    R语言glm拟合logistic回归模型实战:基于glm构建逻辑回归模型及模型系数统计显著性分析.每个预测因子对响应变量的贡献 目录

  7. ISLR统计学习导论之R语言应用(六):R语言实现变量选择和岭回归

    ISLR统计学习导论之R语言应用(六):R语言实现变量选择和岭回归

  8. R语言glm函数拟合回归模型时其它常用的函数(summary、coefficients、confint、fitted、residuals、anova、plot、predict、deviance等)

    R语言glm函数拟合回归模型时其它常用的函数(summary.coefficients.confint.fitted.residuals.anova.plot.predict.deviance.df. ...

  9. R语言进行变量编码(recode):把dataframe中连续变量基于条件表达式转化为多个类别的离散变量(分类变量)、使用attach函数绑定数据

    R语言进行变量编码(recode):把dataframe中连续变量基于条件表达式转化为多个类别的离散变量(分类变量).使用attach函数绑定数据 目录

最新文章

  1. unix网络编程之简介
  2. 【noqsl】beansdb的分布式实现~简单粗暴有效~
  3. 【semantic】本体和语义网的研究方向
  4. 使用文档自动保存功能
  5. placeholder调整颜色
  6. 首款鸿蒙系统终端n,首款搭载华为鸿蒙系统终端来了!荣耀智慧屏正式发布,3799元起售...
  7. 【机器学习算法】XGBoost
  8. 100个程序员学习的网站
  9. percona-toolkit工具包安装
  10. UITableView,UICollectionView,UIScrollView快速返回顶部
  11. double-talk检测算法分类
  12. if(!!boolean)两次取反
  13. 剖析车联网的完美形态,机器人化还是智能交通?
  14. linux挂载移动硬盘 格式化_Linux下挂载移动硬盘(NTFS格式)
  15. 解决百度云下载缓慢问题
  16. 蓝牙打印 设置打印样式_Android蓝牙打印机,带你真正了解各种打印格式
  17. 网页实现excel下载
  18. linux常用命令操作
  19. sublime text3安装python插件和flake8_Sublime Text 3中的插件sublimelinter3外加sublimelinter-flake8,无使用效果...
  20. 春风拂过希壤,能否成为元宇宙创作的起点?

热门文章

  1. (低预算)无线路由器选择
  2. 实现无损视频/GIF/图像放大(翻译)
  3. CST仿真指导 | 问题类型与求解器的选择
  4. 汇编语言——第10章 CALL和RET指令
  5. 四、Mp3文件类型及其判断
  6. 杰理AC690X系列---EQ工具的使用(8)
  7. 杰理之杰理之家,播歌声音小,杰理之家调EQ声音小【篇】
  8. 基于阿米巴经营模式的电商平台研发
  9. CAD编辑指南6:CAD导入图片和在CAD中创建表格
  10. ADSL上网密码破解记