Sql 过长查询报错、in过多、查询慢优化方案探索

目录

文章目录

  • Sql 过长查询报错、in过多、查询慢优化方案探索
    • 目录
    • 背景描述
    • 解决方案
      • 方案1(内存中过滤)
        • 存在问题
      • 方案2 In 查询的内容写入固化表
        • 固化表格式如下
        • 写多张固化表思路
        • 存在问题
      • 方案2 改进使用 left join
      • 方案3(精确查询条件)
      • 方案4 使用临时表
      • 方案5 固化写表使用事务特性
    • 查询执行过程性能分析
      • 写表性能分析
        • 写入固化表
          • 单条插入
          • 批处理
            • sql 多values
          • 手动提交事务
          • ` PreparedStatement executeBatch` 方式
        • 写临时表插入
          • 多values方式
          • 手动提交数据
      • 查询Sql性能分析
        • Sql in 子查询方式
        • 使用 exist 过滤
        • join 方式
    • 性能分析结论
      • 写表性能分析
        • 1000条一次
        • 10000条写一次
        • 5000条写一次
      • 查询性能分析
      • 总结
    • 临时表、内存表、视图
      • 数据库临时表
        • Mysql 使用临时表的情况
          • 创建临时表
          • group by 语句
          • distinct
        • 临时表的应用
      • 数据库内存表
        • 内存表介绍
        • 创建内存表
          • 内存表引用
      • 临时表和内存表区别
      • 数据库视图
      • 临时表实战

背景描述

  • 当不能直接进行sql联表查询的时候,一些中间数据需要写到表中进行查询从而解决一些无法解决的问题

  • Sql中通过sql in or in 的方式拼接sql会导致sql长度过长,Sql执行报错。

  • 使用 in 查询效率较慢

select * from test where id in('1001','1002')  or id in('1001')
  • in的内容过长后,sql超过数据库对sql长度的设定后会报错

解决方案

方案1(内存中过滤)

  • in中的内容超过一定的阈值后,超过阈值数据的字段在内存中进行过滤,先查出其它条件符合的数据(sql不做分页查询 ),加载到内存中,最后进行内存分页
/*** 内存分页** @param list     数据* @param pageNum  当前页* @param pageSize 分页条数* @return List*/
public <T> List<T> pageOperateInMemory(List<T> list, Integer pageNum, Integer pageSize) {if (CollectionUtils.isEmpty(list)) {return Collections.emptyList();}// 根据当前页和分页条数 从总记录数中取数据return list.stream().skip((long) pageSize * (pageNum - 1)).limit(pageSize).collect(Collectors.toList());
}

存在问题

  • 主表数据过大的时候,查询全部数据过慢

方案2 In 查询的内容写入固化表

  • 创建一张固化表保存In里面的数据,每次查询的时候先写表,再用这张表做关联查询
# 方式 1 子查询
select * from master_table x where col_one in(select code from table_temp y where x.col_one=y.code)
select * from test x where  exists (select id from test y where y.id=x.id  )
# 方式 2 inner join
select x.* from master_table x inner join  table_temp y on x.col_one = y.code
  • 一次查询完成后用id删除数据

固化表格式如下

  • table_temp
标识 名称 含义
id id 一次查询生成的 uuid
code in中的值
type 类型 类型
request_id 查询id 查询id

写多张固化表思路

  • 每次查询生成一个查询id
  • 创建多张固化表,每次查询随机hash到随机表进行写表
  • 使用多线程写表(存在问题见存在的问题描述)

存在问题

  • 本地测试15万数据写入空表5秒左右,当表中数据越来越多的时候,写入速度变慢
  • 使用多项成写表的时候,数据量比较大的时候,写表速度不是特别理想,在并发情况下数据库处理大量sql不是很理想、并且在写完表后还有后续查询逻辑,sql查询不是特别理想
  • 此种方法不推荐

方案2 改进使用 left join

  • 写固化表在使用 join方式比 in 子查询的方式快
  • 使用 in子查询在遇到分页的问题的时候会比较慢,推荐优先使用 join方式

方案3(精确查询条件)

  • sql拼接更加精确的条件,减少 in的查询范围

方案4 使用临时表

  • 经过实践发现使用临时表效果较好
  • 使用临时表详情:https://blog.csdn.net/qq_37248504/article/details/127349776

方案5 固化写表使用事务特性

  • 手动控制事务,写表之后事务不提交,等所有查询语句执行完成之后,回滚事务
  • 这种方案比较好,整体速度快

查询执行过程性能分析

  • table_temp 共有 15

写表性能分析

写入固化表

单条插入
  • mybatis insert方式
private void insertOneByOne(List<TempDO> tempDOList) {StopWatch stopWatch = new StopWatch("task1");stopWatch.start();int i = 0;for (TempDO tempDO : tempDOList) {testMapper.insertSelective(tempDO);i++;if (i == 10000) {stopWatch.stop();logger.info(String.valueOf(stopWatch.getTotalTimeMillis()));i = 0;}}
}
// 10000 条 需要 4分29秒
  • jdbcTemplate方式
private void insertOneByOneJdbcExcute(List<TempDO> tempDOList) {String sql = "INSERT INTO table_temp_one (ID,VER,CODE,ORGCODE,NAME,SHORTNAME,VALIDTIME,INVALIDTIME,PARENTCODE,ORDINAL,CREATEUSER,CREATETIME,PARENTS) VALUES\n" +"\t (?,?,?,?,?,?,?,?,?,?,?,?,?);\n";List<Object[]> objectList = new ArrayList<>();for (TempDO tempDO : tempDOList) {Object[] object = {tempDO.getId(), tempDO.getVer(), tempDO.getCode(), tempDO.getOrgcode(), tempDO.getName(), tempDO.getShortname(), tempDO.getValidtime(), tempDO.getInvalidtime(),tempDO.getParentcode(), tempDO.getOrdinal(), tempDO.getCreateuser(), tempDO.getCreatetime(), tempDO.getParents()};objectList.add(object);}StopWatch stopWatch = new StopWatch("task1");stopWatch.start();int i = 0;for (Object[] objects : objectList) {jdbcTemplate.update(sql, objects);i++;if (i == 10000) {stopWatch.stop();logger.info(String.valueOf(stopWatch.getTotalTimeMillis()));i = 0;}}
}
// 10000 条 需要 4分 36秒
批处理
sql 多values
@Insert("<script>INSERT INTO table_temp\n" +"        (id,request_id,code,type)\n" +"        values\n" +"        <foreach collection=\"list\" item=\"item\" separator=\",\">\n" +"            (#{item.id}, #{item.requestId}, #{item.code}, #{item.type})\n" +"        </foreach></script>")
int insertBatch(TempDO tempDO);写入 10000 条执行耗时:{}937
写入 10000 条执行耗时:{}734
写入 10000 条执行耗时:{}925
写入 10000 条执行耗时:{}1241
写入 10000 条执行耗时:{}959
写入 10000 条执行耗时:{}999
写入 10000 条执行耗时:{}701
写入 10000 条执行耗时:{}352
写入 10000 条执行耗时:{}582
写入 10000 条执行耗时:{}390
写入 10000 条执行耗时:{}527
写入 10000 条执行耗时:{}388
写入 10000 条执行耗时:{}357
写入 10000 条执行耗时:{}491
写入 10000 条执行耗时:{}300
写入 10000 条执行耗时:{}23
写入 150000 条执行耗时:{}9915
------------------------------------
写入 150000 条执行耗时:{}6206
------------------------------------
写入 150000 条执行耗时:{}5658
写入 150000 条执行耗时:{}6674
写入 150000 条执行耗时:{}7744
手动提交事务
SqlSessionFactory sqlSessionFactory = ApplicationContextRegister.getBean(SqlSessionFactory.class);
SqlSession sqlSession = sqlSessionFactory.openSession(ExecutorType.BATCH);
InsertTestMapper mapper = sqlSession.getMapper(InsertTestMapper.class);List<List<TempDO>> lists = splitList(list, 10000);
StopWatch stopWatch = new StopWatch("totalTask");
stopWatch.start();
for (List<TempDO> tempDOList : lists) {StopWatch stopWatch1 = new StopWatch("task1");stopWatch1.start();mapper.insertBatch(tempDOList);stopWatch1.stop();System.out.println("写入 10000 条执行耗时:{}" + stopWatch1.getTotalTimeMillis());
}
sqlSession.commit();
stopWatch.stop();
System.out.println("写入 150000 条执行耗时:{}" + stopWatch.getTotalTimeMillis());---------------------------------------------------------------
写入 10000 条执行耗时:{}159
写入 10000 条执行耗时:{}106
写入 10000 条执行耗时:{}106
写入 10000 条执行耗时:{}106
写入 10000 条执行耗时:{}106
写入 10000 条执行耗时:{}139
写入 10000 条执行耗时:{}109
写入 10000 条执行耗时:{}106
写入 10000 条执行耗时:{}133
写入 10000 条执行耗时:{}107
写入 10000 条执行耗时:{}107
写入 10000 条执行耗时:{}107
写入 10000 条执行耗时:{}106
写入 10000 条执行耗时:{}107
写入 10000 条执行耗时:{}121
写入 10000 条执行耗时:{}0
写入 150000 条执行耗时:{}4734
---------------------------------------------------------------------
写入 10000 条执行耗时:{}130
写入 10000 条执行耗时:{}105
写入 10000 条执行耗时:{}105
写入 10000 条执行耗时:{}127
写入 10000 条执行耗时:{}135
写入 10000 条执行耗时:{}106
写入 10000 条执行耗时:{}105
写入 10000 条执行耗时:{}133
写入 10000 条执行耗时:{}106
写入 10000 条执行耗时:{}107
写入 10000 条执行耗时:{}111
写入 10000 条执行耗时:{}106
写入 10000 条执行耗时:{}159
写入 10000 条执行耗时:{}142
写入 10000 条执行耗时:{}138
写入 10000 条执行耗时:{}0
写入 150000 条执行耗时:{}6495
PreparedStatement executeBatch 方式
Connection connection = SpringContextUtils.getBean(JdbcTemplate.class).getDataSource().getConnection();
String sql = "insert into table_temp(id, request_id,code,type) VALUES (?,?,?,?)";
PreparedStatement ps = null;
try {ps = connection.prepareStatement(sql);// 取消自动提交connection.setAutoCommit(false);StopWatch stopWatch = new StopWatch("totalTask");stopWatch.start();for (int i = 1; i <= list.size(); i++) {TempDO tempDO = list.get(i - 1);ps.setObject(1, tempDO.getId());ps.setObject(2, tempDO.getRequestId());ps.setObject(3, tempDO.getCode());ps.setObject(4, tempDO.getType());ps.addBatch();if (i % 10000 == 0) {StopWatch stopWatch1 = new StopWatch("task1");stopWatch1.start();ps.executeBatch();ps.clearBatch();stopWatch1.stop();System.out.println("写入 10000 条执行耗时:{}" + stopWatch1.getTotalTimeMillis());}}ps.executeBatch();ps.clearBatch();connection.commit();//所有语句都执行完毕后才手动提交sql语句stopWatch.stop();System.out.println("写入 150000 条执行耗时:{}" + stopWatch.getTotalTimeMillis());
} catch (SQLException e) {e.printStackTrace();
} finally {connection.close();
}写入 10000 条执行耗时:{}1696
写入 10000 条执行耗时:{}1423
写入 10000 条执行耗时:{}1192
写入 10000 条执行耗时:{}1273
写入 10000 条执行耗时:{}1203
写入 10000 条执行耗时:{}1445
写入 10000 条执行耗时:{}1226
写入 10000 条执行耗时:{}1298
写入 10000 条执行耗时:{}1666
写入 10000 条执行耗时:{}1251
写入 10000 条执行耗时:{}1190
写入 10000 条执行耗时:{}1364
写入 10000 条执行耗时:{}1263
写入 10000 条执行耗时:{}1191
写入 10000 条执行耗时:{}1682
写入 150000 条执行耗时:{}20753
--------------------------------------------------------------------
写入 10000 条执行耗时:{}1579
写入 10000 条执行耗时:{}1859
写入 10000 条执行耗时:{}1483
写入 10000 条执行耗时:{}1470
写入 10000 条执行耗时:{}1488
写入 10000 条执行耗时:{}1059
写入 10000 条执行耗时:{}1112
写入 10000 条执行耗时:{}1164
写入 10000 条执行耗时:{}1426
写入 10000 条执行耗时:{}1202
写入 10000 条执行耗时:{}1315
写入 10000 条执行耗时:{}1654
写入 10000 条执行耗时:{}1301
写入 10000 条执行耗时:{}1134
写入 10000 条执行耗时:{}1529
写入 150000 条执行耗时:{}21168

写临时表插入

  • 先创建临时表,在执行插入,使用完之后删除
多values方式
写入 10000 条执行耗时:{}1267
写入 10000 条执行耗时:{}440
写入 10000 条执行耗时:{}352
写入 10000 条执行耗时:{}524
写入 10000 条执行耗时:{}380
写入 10000 条执行耗时:{}306
写入 10000 条执行耗时:{}457
写入 10000 条执行耗时:{}303
写入 10000 条执行耗时:{}301
写入 10000 条执行耗时:{}804
写入 10000 条执行耗时:{}333
写入 10000 条执行耗时:{}297
写入 10000 条执行耗时:{}323
写入 10000 条执行耗时:{}325
写入 10000 条执行耗时:{}324
写入 150000 条执行耗时:{}6746
---------------------------------------------------------------
写入 10000 条执行耗时:{}372
写入 10000 条执行耗时:{}409
写入 10000 条执行耗时:{}302
写入 10000 条执行耗时:{}303
写入 10000 条执行耗时:{}302
写入 10000 条执行耗时:{}302
写入 10000 条执行耗时:{}370
写入 10000 条执行耗时:{}300
写入 10000 条执行耗时:{}724
写入 10000 条执行耗时:{}302
写入 10000 条执行耗时:{}299
写入 10000 条执行耗时:{}303
写入 10000 条执行耗时:{}299
写入 10000 条执行耗时:{}301
写入 10000 条执行耗时:{}301
写入 150000 条执行耗时:{}5196
手动提交数据
写入 10000 条执行耗时:{}379
写入 10000 条执行耗时:{}219
写入 10000 条执行耗时:{}174
写入 10000 条执行耗时:{}165
写入 10000 条执行耗时:{}162
写入 10000 条执行耗时:{}155
写入 10000 条执行耗时:{}227
写入 10000 条执行耗时:{}239
写入 10000 条执行耗时:{}163
写入 10000 条执行耗时:{}202
写入 10000 条执行耗时:{}157
写入 10000 条执行耗时:{}175
写入 10000 条执行耗时:{}166
写入 10000 条执行耗时:{}160
写入 10000 条执行耗时:{}169
写入 150000 条执行耗时:{}4348

查询Sql性能分析

  • 主表数据50
  • 固化表(table_temp)数据50

Sql in 子查询方式

  • 查询 2s之内
SELECT *
FROM MASTER_TABLE
WHERE  (MASTER_TABLE.CODE in (select code from table_temp))

使用 exist 过滤

  • 查询用时 3-4 s
SELECT *
FROM MASTER_TABLE
WHERE  exists (
select code from table_temp y where MASTER_TABLE.CODE = y.code
)

join 方式

  • 查询 2s之内
SELECT *
FROM MASTER_TABLE
inner join table_temp x on MASTER_TABLE.CODE = x.code

性能分析结论

写表性能分析

  • 15万数据

  • 10000条一次比5000、1000条一次写入速度快

  • 固化表增加code索引后写入变慢

  • 手动提交事务比自动提交事务快

  • 固化表追加方式写的时候越往后越慢

1000条一次

  • 写入 150000 条执行耗时:9995
  • 写入 150000 条执行耗时:9924

10000条写一次

  • 固化表只有主键
比较项 插入数据量 固化表 固化表(追加数据) 临时表 临时表(追加数据)
单条插入 10000 429
values方式插入自动提交事务 15 3次平均6.624 3次平均 7.313 3次(每次重新创建临时表)平均4.9 越往后越慢
values方式插入手动提交事务 15 3次/6.15 3次平均6.01 3次(每次重新创建临时表)平均4 3次(第一次创建临时表,后面两次追加)平均5.8
  • 固化表 code设置索引
比较项 插入数据量 固化表 固化表(追加数据)
values方式插入自动提交事务 15 3次平均7.25 3次平均 9.04
values方式插入手动提交事务 15 3次/7.24 3次平均9.43

5000条写一次

  • 固化表只有主键
插入数据量 比较项 固化表 固化表(追加数据)
15 values方式插入自动提交事务 3次平均5.938秒:5606、6587、5621 3次平均 8.386 秒:7510、8408、9240
15 values方式插入手动提交事务 3次/6.050秒:5728、6762、5661 3次平均6.582秒:5661、6462、7625
  • 固化表 code设置索引
比较项 插入数据量 固化表 固化表(追加数据)
values方式插入自动提交事务 15 3次平均7.839秒:7840、7662、8015 3次平均 9.15 秒:7373、9185、10921
values方式插入手动提交事务 15 3次/6.916秒:6427、7139、7166 3次平均9.276秒:6781、9278、11769

查询性能分析

  • 固化表 code增加索引后三种方式秒出

  • 固化表不加 code索引、join 方式查询最快

  • 固化表只有主键

比较项 主表数据50(固化表)数据45
in 作为子查询 2.584s、2.547s、2.546s
exist 查询 5.72s、5.91s、5.94s
inner join 查询 1.638s、1.661s、1.640s
  • 固化表 code设置索引
比较项 主表数据50(固化表)数据45
in 作为子查询 秒出
exist 查询 秒出
inner join 查询 秒出

总结

  • 使用固化表存储插入的时候使用批量手动提交事务的方式插入
  • sql 插入多 values方式速度比较快
  • sql查询使用 left join 比使用 in子查询的方式快很多
  • 使用数据库临时表是最好的方案

临时表、内存表、视图

数据库临时表

  • 临时表只在当前连接可见,当关闭连接时,Mysql会自动删除表并释放所有空间。

  • 外部临时表:通过CREATE TEMPORARY TABLE 创建的临时表,这种临时表称为外部临时表。这种临时表只对当前用户可见,当前会话结束的时候,该临时表会自动关闭。这种临时表的命名与非临时表可以同名(同名后非临时表将对当前会话不可见,直到临时表被删除)。

  • 内部临时表:内部临时表是一种特殊轻量级的临时表,用来进行性能优化。这种临时表会被MySQL自动创建并用来存储某些操作的中间结果。内部临时表在SQL语句的优化过程中扮演着非常重要的角色, MySQL中的很多操作都要依赖于内部临时表来进行优化。但是使用内部临时表需要创建表以及中间数据的存取代价,所以用户在写SQL语句的时候应该尽量的去避免使用临时表。

  • 如果超出了临时表的容量,临时表会转换成磁盘表

Mysql 使用临时表的情况

创建临时表
  • MySQL用于存储一些中间结果集的表,临时表只在当前连接可见,当关闭连接时,Mysql会自动删除表并释放所有空间。
# 创建 临时表语句
create temporary table tb_temporay(id varchar(36),name varchar(30),code varchar(30));
  • 查看sql元数据信息并没有这张表
group by 语句
  • 先通过索引范围扫描得到需要的数据,然后将数据存入临时表,然后再进行排序和分组操作来完成 GROUP BY。
select count(*) from tb_data group by string1;

distinct
  • EXPLAIN 查看执行计划结果的 Extra 列中,如果包含 Using Temporary 就表示会用到临时表。

临时表的应用

  • 当某一个SQL语句关联的表在2张及以上,并且和一些小表关联。可以采用将大表进行分拆并且得到比较小的结果集合存放在临时表中。
  • 程序执行过程中可能需要存放一些临时的数据,这些数据在整个程序的会话过程中都需要用的等等。
  • 临时表默认的是MyISAM,但是可以修改。
  • 可以把一些经常访问的数据放到临时表中,这样访问时会快一些,因为数据是在服务器内存中,另外每次查询的时候,数据库都需要生成一些临时数据在临时表里

数据库内存表

内存表介绍

  • 内存表的表结构建立在磁盘里面,数据放在内存里面;

  • MySQL断开当前连接后,临时表的表结构和表数据都没了,但内存表的表结构和表数据都存在;当MySQL服务重启之后,内存表的数据会丢失,但表结构依旧存。

创建内存表

  • 内存表与创建普通表一样,使用CREATE TABLE语句,但需要将存储引擎设置为:ENGINE = MEMORY
create  table tb_one (id varchar(36),name varchar(30),code varchar(30))ENGINE = MEMORY;
insert into tb_one(id,name,code) values('1','2','3')
内存表引用
  • 内存表使用哈希散列索引把数据保存在内存中,因此具有极快的速度,适合缓存中小型数据库。
  • 一旦服务器重启,所有内存表数据丢失,但是表结构仍然存在,因为表结构是存放在实际数据库路径下的,不会自动删除。重启之后,内存表将被清空,这时候对内存表的查询结果都是空的。

临时表和内存表区别

临时表 内存表
存储 表结构和数据都存储在内存中 表结构存储在磁盘中,表数据存储在内存中
会话 单个会话独享的,是会话级别的 可以多个会话共享
引擎 临时表默认,myisam 内存表默认,memory
断开连接 表结构和表数据都没了 表结构和表数据都存在
服务重启 表结构和表数据都没了 表结构存在,表数据不存在
性能 由于表数据都是存放在内存中,所以相对来说,查询速度较快,但是数据的维护较为困难

数据库视图

  • 视图(view)是在基本表之上建立的表,它的结构(即所定义的列)和内容(即所有数据行)都来自基本表,它依据基本表存在而存在。
  • 一个视图可以对应一个基本表,也可以对应多个基本表。视图是基本表的抽象和在逻辑意义上建立的新关系。
  • 视图适合于多表连接浏览时使用,不适合增、删、改。

临时表实战

使用临时表详情:https://blog.csdn.net/qq_37248504/article/details/127349776

# Sql语句过长报错、查询慢优化方案探索相关推荐

  1. 执行update和delete的SQL语句时,报错:Error Code: 1175. You are using safe update mode and you tried to update a

    执行SQL语句时,报错: 13:36:42 delete from users where username='lisi' Error Code: 1175. You are using safe u ...

  2. 数据库关键字问题mysql 运行sql语句check关键字报错

    mysql 运行sql语句check关键字报错.出错:因为check为 mysql的保留关键字,改名即可. 遇到数据库语句问题可以参考下这个问题,之前的access数据库用的check作为表明,代码迁 ...

  3. sql语句使用foreach报错

    mapper List<ReworkDeviceDetailDTO> getListByPartIds(List<Long> partIds); sql语句 <selec ...

  4. 怎么sql语句错了 不报错 还继续执行?

    <html xmlns="http://www.w3.org/1999/xhtml"> <head> <meta http-equiv="C ...

  5. MyBatis中编写sql语句小于号报错

    场景 在编写Mybatis的xml文件时使用>可以但是使用<报错. 解决 1.调换位置 比如a < b 改为b > a 2.使用代替符号

  6. sql语句Order by 报错列名不明确

    select top 10 column1,column2,column3 from table1 where table1.id not in(select top 0 table1.id from ...

  7. slf4j mysql_能显示sql语句,没有报错,但是MySQL里没有表?还有,slf4j是必须的吗?...

    org.hibernate.dialect.MySQLDialect true true update ssh/domain/Product.hbm.xml jdbc.driverClass=com. ...

  8. oracle拼接字符串报错,Oracle 中wmsys.wm_concat拼接字符串,结果过长报错解决

    备忘:这个函数最大是4000,根据拼接列的长度,通过限制拼接条数来防止拼接字符串过长错误 --这个情况是从子表中读取出具,这里直接把它当做查询字段处理,在子表中有所有数据 select info.id ...

  9. oracle insert汉字出错,Oracle数据库之Oracle批量插入数据SQL语句太长出错:无效的主机/绑定变量名...

    本文主要向大家介绍了Oracle数据库之Oracle批量插入数据SQL语句太长出错:无效的主机/绑定变量名,通过具体的内容向大家展现,希望对大家学习Oracle数据库有所帮助. Oracle数据库,用 ...

最新文章

  1. JS 总结之原型继承的几种方式
  2. 格式化大容量硬盘为fat32
  3. 质子交换膜燃料电池稳压器的设计及仿真
  4. tomcat源码分析_百战卓越108天tomcat和servlet源码分析
  5. leetcode 24. Swap Nodes in Pairs | 24. 两两交换链表中的节点(Java)
  6. 摆脱冷气_摆脱匿名类
  7. 关于JavaScript中cookie的用法例子
  8. Codeforces Round #281 (Div. 2) A. Vasya and Football 模拟
  9. 嘿,OCR文字识别了解下!
  10. 输入需求自动生成代码,这个AI有点厉害,可以替代真人吗?
  11. 微信桌面版如何同时登陆两个微信账号
  12. 有哪些计算机软件可以录制声音,有什么录制电脑系统声音的软件
  13. ps 毛发 边缘_PS技巧:毛发抠图调整边缘法
  14. 卡诺模型案例分析_卡诺模型及使用
  15. QT如何去掉布局(Layout)内控件之间的空隙
  16. html css星号选择器,CSS里面的星号*
  17. 跨境电商国外消费者线上购物心理分析
  18. 短链接的生成之工具类的编写--三种方式(亲测可用)
  19. Java工程师(面试)
  20. EPICS记录参考--计算输出记录(calcout)

热门文章

  1. 《别看了,你学不会的》——Redis原理与实战(一)
  2. gpu云服务器运行游戏_GPU云服务器可以挂在大型游戏吗
  3. FastCGI 进程管理器(FPM)
  4. 10 个Web3 设计灵感网站
  5. 7.1 Python中文件的读取和写入
  6. PRML系列:1.5 Decision Theory
  7. 三相有功无功电流检测方法
  8. 【7W字长文】使用LVS+Keepalived实现Nginx高可用,一文搞懂Nginx
  9. Rar5.20 key
  10. apache zip java_java中ant包中的org.apache.tools.zip实现压缩和解压缩