文章目录

  • Kobe
  • hrs
    • 连接两表/按条件查询
    • 删除行/列
    • 修改索引
    • 重置索引/设置索引
  • 笛卡尔积
  • 汇总两个表
  • 看表的空值
  • 看表的尾/首的xx条数据
  • 对表里某列做判断
  • 对表里某列去重
  • 修改表里某个字段
  • 往表里添加某个元素
  • 表的正则表达式
  • apply 和transform
  • 表的排序
  • 添加新列
  • 表的分组
  • 表的求和和分组
  • 透视表
  • 卖手机
  • 卖水果
  • np.random.normal(μ,σ,(n,m))
  • 数据的分箱操作
  • 作业:2018年北京积分落户数据分析。
  • 拉钩招聘分析

Kobe

kobe_df = pd.read_csv('data/Kobe_data.csv', index_col='shot_id')
# 1. 科比使用得最多的投篮动作
ser = kobe_df.action_type + '-' + kobe_df.combined_shot_type
ser.value_counts().index[0]
# ser.mode()[0]
# ser.describe()['top']
# 2. 科比交手次数最多的队伍
kobe_df.drop_duplicates('game_id').opponent.value_counts().index[0]
# kobe_df.drop_duplicates('game_id').opponent.mode()[0]
# kobe_df.drop_duplicates('game_id').opponent.describe()['top']
# 3. 职业生涯总得分
# 先将shot_made_flag列的空值进行填充,再来筛选数据
kobe_df['shot_made_flag'] = kobe_df.shot_made_flag.fillna(0).map(int)
temp = kobe_df[kobe_df.shot_made_flag == 1].shot_type
# temp.apply(lambda x: int(x[0])).sum()
# 获取对应的字符串向量 ---> 通过正则表达式捕获组语法抽取数字
temp.str.extract(r'(\d+)')[0].map(int).sum()

hrs

import pymysqlconn = pymysql.connect(host='47.104.31.138', port=3306,user='guest', password='Guest.618',database='hrs', charset='utf8mb4')
dept_df = pd.read_sql('select dno, dname, dloc from tb_dept', conn)
dept_df
emp_df = pd.read_sql(sql='select eno, ename, job, mgr, sal, comm, dno from tb_emp', con=conn,# index_col='eno'
)

连接两表/按条件查询

# 连接两表
pd.merge(emp_df, dept_df, how='inner', on='dno').set_index('eno')
# 按条件查询
emp_df[(emp_df.dno == 20) & (emp_df.sal >= 5000)]
#   eno ename   job mgr sal comm    dno
#1  2056    乔峰  分析师 7800.0  5000    1500.0  20
#13 7800    张三丰 总裁  NaN 9000    1200.0  20
emp_df.query('dno == 20 and sal >= 5000')

删除行/列

# 删除行
emp_df.drop(index=emp_df[emp_df.dno != 20].index, inplace=True)
# 删除列
emp_df.drop(columns=['mgr', 'dno'], inplace=True)

修改索引

# 修改索引
# 修改行或者列的索引
emp_df.rename(columns={'sal': 'salary', 'comm': 'allowance'}, inplace=True)

重置索引/设置索引

# 重置索引(将原来的索引列变成普通列)
emp_df.reset_index(inplace=True)# 设置索引(指定一个列或多个列充当索引)
emp_df.set_index('ename', inplace=True)
emp_df# 调整索引(的顺序)
emp_df.reindex(columns=['salary', 'job'])
#   salary  job
#ename
#乔峰      5000   分析师
#李莫愁    3500    设计师
#张无忌    3200    程序员
#丘处机    3400    程序员
#欧阳锋    3200    程序员
#张翠山    4000    程序员
#张三丰    9000    总裁emp_df.reindex(index=['李莫愁', '张三丰', '乔峰'])
#   index   eno job salary  allowance
#ename
#李莫愁    2   3088    设计师 3500    800.0
#张三丰    13  7800    总裁  9000    1200.0
#乔峰 1   2056    分析师 5000    1500.0

笛卡尔积

import itertoolsnames = ['高新', '犀浦', '新津']
years = ['2018', '2019']
groups = ['A', 'B']
# 笛卡尔积
for name, year, group in itertools.product(names, years, groups):print(name, year, group)
# 高新 2018 A
# 高新 2018 B
# 高新 2019 A
# 高新 2019 B
# 犀浦 2018 A
# 犀浦 2018 B
# 犀浦 2019 A
# 犀浦 2019 B
# 新津 2018 A
# 新津 2018 B
# 新津 2019 A
# 新津 2019 B

汇总两个表

import itertoolsnames = ['高新', '犀浦', '新津']
years = ['2018', '2019']
dfs = [pd.read_excel(f'data/小宝剑大药房({name}店){year}年销售数据.xlsx', header=1) for name, year in itertools.product(names, years)]
# dfs = []
# for name in names:
#     temp_df = pd.read_excel(f'data/小宝剑大药房({name}店)2018年销售数据.xlsx', header=1)
#     dfs.append(temp_df)
# pd.concat(dfs).reset_index(drop=True)
pd.concat(dfs, ignore_index=True).to_excel('小宝剑大药房2018-2019年汇总数据.xlsx')

看表的空值

emp_df.isnull()
#   index   eno job salary  allowance
# ename
# 乔峰    False   False   False   False   False
# 李莫愁   False   False   False   False   False
# 张无忌   False   False   False   False   True
# 丘处机   False   False   False   False   True
# 欧阳锋   False   False   False   False   True
# 张翠山   False   False   False   False   True
# 张三丰   False   False   False   False   False

看表的尾/首的xx条数据

youtube_df.tail(10)
youtube_df.head(10)

对表里某列做判断

youtube_df.duplicated('video_id')
# 0        False
# 1        False
# 2        False
# 3        False
# 4        False

对表里某列去重

# 去重
youtube_df = youtube_df.drop_duplicates('video_id', keep='first')
youtube_df

修改表里某个字段

emp_df.replace('程序员', '程序猿', inplace=True)

往表里添加某个元素

Get value at specified row/column pair
>>> df.at[4, 'B']
2
Set value at specified row/column pair>>> df.at[4, 'B'] = 10
>>> df.at[4, 'B']
10
emp_df.at[2, 'job'] = '程序媛'
# 张三丰   13.0    7800.0  总裁  9000.0  1200.0
# 2 NaN NaN 程序媛 NaN NaN

表的正则表达式

# 把表里的所有程序媛和程序猿替换成程序员
emp_df.replace(regex='程序[猿媛]', value='程序员')
# 把表里job列的程序猿/媛换成程序员
emp_df['job'] = emp_df.job.str.replace('程序[猿媛]', '程序员', regex=True)

apply 和transform

temp = pd.DataFrame({'A': range(3), 'B': range(1, 4)})
#   A   B
# 0 0   1
# 1 1   2
# 2 2   3
temp.apply(np.sqrt)
#   A   B
# 0 0.000000    1.000000
# 1 1.000000    1.414214
# 2 1.414214    1.732051
temp.apply(np.sum)
# A    3
# B    6
# dtype: int64# 沿1轴求和
temp.apply(np.sum, axis=1)
# 0    1
# 1    3
# 2    5
# dtype: int64
temp.transform(np.sqrt)
# A B
# 0 0.000000    1.000000
# 1 1.000000    1.414214
# 2 1.414214    1.732051
temp.transform([np.exp, np.sqrt])
#   A   B
# exp   sqrt    exp sqrt
# 0 1.000000    0.000000    2.718282    1.000000
# 1 2.718282    1.000000    7.389056    1.414214
# 2 7.389056    1.414214    20.085537   1.732051
# 将性别字段处理成“男”和“女”
student_df['stu_sex'] = student_df.stu_sex.transform(lambda x: '男' if x == 1 else '女')
student_df

表的排序

# 根据点赞数和播放数对视频进行排序
temp = youtube_df.sort_values(by=['likes', 'views'], ascending=[False, True])# 找出点赞数的前10名
youtube_df.drop_duplicates('video_id', keep='last').nlargest(10, 'likes')

添加新列

youtube_df['hot_value'] = youtube_df.views + youtube_df.likes + youtube_df.dislikes + youtube_df.comment_count

表的分组

# 数据透视 ---> 分组聚合 ---> SAC(Split - Aggregate - Combine)
# 根据频道对视频分组,计算每个频道热度值的和
youtube_df.groupby(by='channel_title').hot_value.sum()def ptp(g):return g.max() - g.min()# 根据频道对视频分组,计算每个频道热度值和点赞数的和、最大值、最小值和极差
temp = youtube_df.groupby(by='channel_title')
temp[['hot_value', 'likes']].agg(['sum', 'max', 'min', ptp])

表的求和和分组

student_df.stu_sex.value_counts()
# 男    7
# 女    3
# Name: stusex, dtype: int64student_df.groupby('stu_sex').count()
# stu_id    stu_name    stu_birth   stu_addr    col_id
# stu_sex
# 女 3   3   3   3   3
# 男 7   7   7   5   7temp = student_df.groupby(by=['collid', 'stusex']).count()
#                  stuid  stuname  stubirth stuaddr
# collid    stusex
# 1            女    2   2   2   2
#              男    4   4   4   4
# 2            男    1   1   1   1
# 3            女    1   1   1   1
#              男    2   2   2   2

按多个分类

temp.loc[(1, '男')]
# stuid       4
# stuname     4
# stubirth    4
# stuaddr     4
# Name: (1, 男), dtype: int64

透视表

# 生成透视表(根据性别统计人数)
student_df.pivot_table(index='stu_sex', values='stu_id', aggfunc='count')
#          stu_id
# stu_sex
# 女          3
# 男          7
# 生成透视表(根据学院和性别统计人数)
student_df.pivot_table(index=['col_id', 'stu_sex'], values='stuid', aggfunc='count')
#                   stu_id
# col_id    stu_sex
#      1    女        2
#           男        4
#      2    男        1
#      3    女        1
#           男        2
temp = student_df.pivot_table(index='col_id', columns='stu_sex', values='stu_id', aggfunc='count',fill_value=0
)
# stu_sex   女   男
# col_id
#      1    2   4
#      2    0   1
#      3    1   2

卖手机

df1 = pd.DataFrame({"类别": ["手机", "手机", "手机", "手机", "手机", "电脑", "电脑", "电脑", "电脑"],"品牌": ["华为", "华为", "华为", "小米", "小米", "华为", "华为", "小米", "小米"],"等级": ["A类", "B类", "A类", "B类", "C类", "A类", "B类", "C类", "A类"],"A组": [1, 2, 2, 3, 3, 4, 5, 6, 7],"B组": [2, 4, 5, 5, 6, 6, 8, 9, 9]
})
#   类别  品牌  等级  A组  B组
# 0 手机  华为  A类  1   2
# 1 手机  华为  B类  2   4
# 2 手机  华为  A类  2   5
# 3 手机  小米  B类  3   5
# 4 手机  小米  C类  3   6
# 5 电脑  华为  A类  4   6
# 6 电脑  华为  B类  5   8
# 7 电脑  小米  C类  6   9
# 8 电脑  小米  A类  7   9
# 任务1:A组手机和电脑各卖出多少台
df1.pivot_table(index='类别', values='A组', aggfunc=np.sum)
#        A组
# 类别
# 手机    11
# 电脑    22
# 任务2:A组不同品牌的手机和电脑各卖出多少台
df1.pivot_table(index='类别', columns='品牌', values='A组', aggfunc=np.sum)
# 品牌    华为  小米
# 类别
# 手机    5   6
# 电脑    9   13
# 任务3:不同品牌的手机和电脑,A组和B组各卖出多少台
df1.pivot_table(index=['类别', '品牌'], values=['A组', 'B组'], aggfunc=np.sum)
#                A组   B组
# 类别    品牌
# 手机    华为     5    11
#         小米    6    11
# 电脑    华为     9    14
#         小米    13   18

卖水果

df2 = pd.DataFrame({'类别': ['水果', '水果', '水果', '蔬菜', '蔬菜', '肉类', '肉类'],'产地': ['美国', '中国', '中国', '中国', '新西兰', '新西兰', '美国'],'名称': ['苹果', '梨', '草莓', '番茄', '黄瓜', '羊肉', '牛肉'],'数量': [5, 5, 9, 3, 2, 10, 8],'价格': [5.8, 5.2, 10.8, 3.5, 3.0, 13.1, 20.5]
})
#   类别  产地  名称  数量  价格
# 0 水果  美国  苹果  5   5.8
# 1 水果  中国  梨   5   5.2
# 2 水果  中国  草莓  9   10.8
# 3 蔬菜  中国  番茄  3   3.5
# 4 蔬菜  新西兰 黄瓜  2   3.0
# 5 肉类  新西兰 羊肉  10  13.1
# 6 肉类  美国  牛肉  8   20.5
# 交叉表:一种特殊的透视表,可以用不同的表(维度表、事实表)中的数据进行数据透视
pd.crosstab(index=df2['类别'], columns=df2['产地'], values=df2['数量'], aggfunc=np.sum,margins=True,margins_name='总计'
).fillna(0).applymap(int)
# 产地    中国  新西兰 美国  总计
# 类别
# 水果    14  0   5   19
# 肉类    0   10  8   18
# 蔬菜    3   2   0   5
# 总计    17  12  13  42

np.random.normal(μ,σ,(n,m))

形成一个元素来自均值是μ,方差为σ正态分布,n行m列的数组

数据的分箱操作

heights = np.round(np.random.normal(172, 8, 500), 1)
temp_df = pd.DataFrame(data=heights, index=np.arange(1001, 1501), columns=['身高'])
# 如果分组用的数据不是离散型的数据,那么就需要先对数据进行分箱(离散化)
bins = [0, 150, 160, 170, 180, 190, 200, np.inf]
# 使用cut函数对数据分箱,将分箱的结果作为groupby操作的分组依据
cate = pd.cut(temp_df['身高'], bins, right=False)
result = temp_df.groupby(cate).count()

作业:2018年北京积分落户数据分析。

  1. 根据company将落户人员分组,统计每个公司有多少积分落户人员?
  2. 根据年龄将落户人员分组,统计每个年龄段有多少人(建议5岁一个年龄段)?
  3. 根据落户积分将落户人员分组,统计每个积分段有多少人?
luohu_df = pd.read_csv('data/2018年北京积分落户数据.csv', index_col='id')
pd.to_datetime(luohu_df.birthday)
# id
# 1      1972-12-01
# 2      1974-12-01
# 3      1974-05-01
# 4      1975-07-01
# 5      1974-11-01
# 将生日换算成年龄
from datetime import datetimeref_date = datetime(2018, 7, 1)
ser = ref_date - pd.to_datetime(luohu_df.birthday)
luohu_df['age'] = ser.dt.days // 365
luohu_df
#    name   birthday    company score   age
# id
# 1  杨效丰    1972-12 北京利德华福电气技术有限公司  122.59  45
# 2  纪丰伟    1974-12 北京航天数据股份有限公司    121.25  43
# 3   王永    1974-05 品牌联盟(北京)咨询股份公司  118.96  44
# 根据company将落户人员分组,统计每个公司有多少积分落户人员?
temp = luohu_df.company.value_counts()
temp[temp > 20]
# 北京华为数字技术有限公司        137
# 中央电视台                73
# 北京首钢建设集团有限公司         57
# 百度在线网络技术(北京)有限公司     55
# 联想(北京)有限公司           48
# 中国民生银行股份有限公司         40
# 北京外企人力资源服务有限公司       39
# 国际商业机器(中国)投资有限公司     39
# 中国国际技术智力合作有限公司       29
# 华为技术有限公司北京研究所        27
# 爱立信(中国)通信有限公司        26
# 腾讯科技(北京)有限公司         24
# 北京阿里巴巴云计算技术有限公司      23
# 根据年龄将落户人员分组,统计每个年龄段有多少人(建议5岁一个年龄段)?
bins = np.arange(30, 61, 5)
cate = pd.cut(luohu_df.age, bins)
temp = luohu_df.groupby(cate).name.count()
temp.plot(kind='bar')
for i in range(temp.size):plt.text(i, temp[i], temp[i], ha='center')
plt.xticks(np.arange(temp.size), labels=[f'{index.left}~{index.right}岁' for index in temp.index], rotation=30
)
plt.show()
# 根据落户积分将落户人员分组,统计每个积分段有多少人?
bins = np.arange(90, 126, 5)
cate = pd.cut(luohu_df.score, bins, right=False)
luohu_df.groupby(cate).name.count()
# score
# [90, 95)      3319
# [95, 100)     1771
# [100, 105)     662
# [105, 110)     219
# [110, 115)      33
# [115, 120)      13
# [120, 125)       2
# Name: name, dtype: int64

拉钩招聘分析

  1. 数据清洗:找出“数据分析”岗位(positionName)的数据,并将薪资(salary)范围处理成中间值。

  2. 数据分析:找出各大城市(city)数据分析岗位的需求量并绘制柱状图。

  3. 数据分析:找出不同领域(industryField)对数据分析方位的需求量的占比并绘制饼图。

  4. 数据分析:分析各城市的薪资水平并绘制折线图

lagou_df = pd.read_csv('data/lagou.csv', index_col='no',usecols=['no', 'city', 'companyFullName', 'positionName', 'industryField', 'salary']
)
lagou_df.shape
#(3140,5)
# 数据清洗:找出“数据分析”岗位(positionName)的数据,并将薪资(salary)范围处理成中间值。
lagou_df = lagou_df[lagou_df.positionName.str.contains('数据分析')]
lagou_df.tail()
# 分组捕获
temp = lagou_df.salary.str.extract('(\d+)[kK]?-(\d+)[kK]?').applymap(int)
temp
# temp里有两列
lagou_df.loc[:, 'salary'] = temp.mean(axis=1)
# 数据分析:找出各大城市(city)数据分析岗位的需求量并绘制柱状图。
lagou_df.city.value_counts()ser = lagou_df.groupby('city').companyFullName.count()
ser.plot(figsize=(10, 4), kind='bar', color=['r', 'g', 'b', 'y'], width=0.8)
# 定制网格线 ---> alpha(透明度)、linestyle(线条样式)、axis(轴)
plt.grid(True, alpha=0.25, linestyle=':', axis='y')
# 定制横轴的刻度
plt.xticks(rotation=0)
# 定制纵轴的刻度
plt.yticks(np.arange(0, 501, 50))
# 定制横轴的标签
plt.xlabel('')
# 定制图表的标题
plt.title('各大城市岗位数量')
for i in range(ser.size):# 在图表上添加文字plt.text(i, ser[i], ser[i], ha='center')
plt.show()
# 数据分析:找出不同领域(industryField)对数据分析岗位的需求量的占比并绘制饼图。
temp = lagou_df.industryField.str.split(pat='[丨,]', expand=True)
lagou_df['modifiedIndustryField'] = temp[0]
ser = lagou_df.groupby('modifiedIndustryField').companyFullName.count()
explodes = [0, 0.15, 0, 0, 0.05, 0, 0, 0, 0, 0]
ser.nlargest(10).plot(figsize=(6, 6), kind='pie', autopct='%.2f%%',pctdistance=0.75,shadow=True,explode=explodes,wedgeprops={'edgecolor': 'white','width': 0.5}
)
plt.ylabel('')
plt.show()
# 数据分析:分析各城市的薪资水平并绘制折线图
ser = np.round(lagou_df.groupby('city').salary.mean(), 2)
ser.plot(figsize=(8, 4), kind='bar')
ser.plot(kind='line', color='red', marker='o', linestyle='--')
plt.show()

提取2019年的订单数据

# 提取2019年的订单数据
from datetime import datetimestart = datetime(2019, 1, 1)
end = datetime(2019, 12, 31, 23, 59, 59)
order_df.drop(index=order_df[order_df.orderTime < start].index, inplace=True)
order_df.drop(index=order_df[order_df.orderTime > end].index, inplace=True)
order_df.shape

处理支付时间早于下单时间的数据

# 处理支付时间早于下单时间的数据
order_df.drop(order_df[order_df.payTime < order_df.orderTime].index, inplace=True)
order_df.shape

折扣字段的处理

# 添加折扣字段,处理折扣大于1的字段(将支付金额修改为“订单金额*平均折扣”)
order_df['discount'] = np.round(order_df.payment / order_df.orderAmount, 4)
mean_discount = np.mean(order_df[order_df.discount <= 1].discount)
order_df['discount'] = order_df.discount.apply(lambda x: x if x <= 1 else mean_discount)
order_df['payment'] = order_df.orderAmount * order_df.discount

显示整体分析

print(f'GMV: {order_df.orderAmount.sum() / 10000:.4f}万元')
print(f'总销售额: {order_df.payment.sum() / 10000:.4f}万元')
real_total = order_df[order_df.chargeback == "否"].payment.sum()
print(f'实际销售额: {real_total / 10000:.4f}万元')
back_rate = order_df[order_df.chargeback == '是'].orderID.size / order_df.orderID.size
print(f'退货率: {back_rate * 100:.2f}%')
print(f'客单价:{real_total / order_df.userID.nunique():.2f}元')
print(order_df[order_df.chargeback == '是'].orderID.size)

np.mean(order_df[order_df.discount <= 1].discount)
order_df[‘discount’] = order_df.discount.apply(lambda x: x if x <= 1 else mean_discount)
order_df[‘payment’] = order_df.orderAmount * order_df.discount


显示整体分析```python
print(f'GMV: {order_df.orderAmount.sum() / 10000:.4f}万元')
print(f'总销售额: {order_df.payment.sum() / 10000:.4f}万元')
real_total = order_df[order_df.chargeback == "否"].payment.sum()
print(f'实际销售额: {real_total / 10000:.4f}万元')
back_rate = order_df[order_df.chargeback == '是'].orderID.size / order_df.orderID.size
print(f'退货率: {back_rate * 100:.2f}%')
print(f'客单价:{real_total / order_df.userID.nunique():.2f}元')
print(order_df[order_df.chargeback == '是'].orderID.size)

数据分析_表和表的运用相关推荐

  1. 数据透视表和数据交叉表_数据透视表的数据提取

    数据透视表和数据交叉表 Consider the data of healthcare drugs as provided in the excel sheet. The concept of piv ...

  2. excel透视表计数去重_在工作表上对Excel自动筛选进行计数

    excel透视表计数去重 It seemed simple enough, but counting the AutoFilters on an Excel sheet is a tough job! ...

  3. sqlplus怎样将名次显示在表的后面_数据透视表-01 3种分析方法比拼,助你步入透视表的知识宝殿...

    数据透视表通俗的讲就是一种在EXCEL表中对数据进行分析汇总的方式,它可以方便的排列.汇总复杂数据,更加清晰的查看.分析隐藏在数据内部的信息. 另外在菜单栏数据选项下的合并计算和分类汇总也可以进行简单 ...

  4. wps透视表列总计移到顶部_数据透视表总计中的错误

    wps透视表列总计移到顶部 Pivot tables are a quick and easy way to summarize a table full of data, without fancy ...

  5. MySQL学习_数据库和表的基本操作

    目录 1 创建和查看数据库 1.1 创建数据库 1.2 查看数据库 1.3 修改数据库 1.4 删除数据库 2 数据类型 2.1 整数类型 2.2 日期数据类型 2.3 字符串数据类型 3表的基本操作 ...

  6. 分库分表之_分库分表 + 复杂查询

    前言 Github:https://github.com/HealerJean 博客:http://blog.healerjean.com 代码配置暂时和和分库分表之_分库分表相同.但是为了测试下面的 ...

  7. 数据库一对多做链接去重_数据库单表查询-多表查询

    """ 1.字段修改 alter modify alter change alter add ''|first|after alter drop 2.表关系: 一对一:外 ...

  8. mysql 姓刘或姓李_案例-多表查询、子查询实例02(有答案)

    以下所有操作在查询管理器中手工书写sql语句完成 1.按下列步骤创建数据库和表 1.2.在这个数据库中创建一个名为[学生表]的表,由[学号].[姓名].[专业].[班级] 字段组成.[学号] 字段为主 ...

  9. bootstraptable获取所有数据_一键获取oracle用户下所有表的表名与其数据量

    概述 作为DBA,对数据库中表段.索引段之类的数量,大概的级别是需要有个大致了解的,今天主要分享一个存储过程,可以很实用的获取到oracle用户下所有表的表名与其数据量. 查询当前用户名下所有表 se ...

最新文章

  1. 2019微信数据报告新鲜出炉!
  2. mysql select 区分大小写,MySql查询不区分大小写解决方案(两种)
  3. Set常用用法元素检索
  4. BugKuCTF WEB web4
  5. Go 超时引发大量 fin-wait2
  6. 【SqlServer】Sqlserver中的DOS命令操作
  7. 单频和混频是什么意思_科研| 谐波混频器常见电路小结
  8. ExtJS监听键盘事件:回车键实现登录功能
  9. C++---list(列表)模板
  10. Halcon 例程学习之频域自相关变换( correlation_fft)
  11. 网管师职业认证网上辅导班开课前的调查
  12. 刷新存储器的容量单位是什么_则其刷新存储器的容量为多?
  13. vcftools安装碰到的坑
  14. 一劳永逸:服务器专用的软件防火墙
  15. 群晖docker中安装VS code
  16. Word无法插入页码怎么办?Word页码选项变灰,无法使用解决方法
  17. Excel VBA 多条件筛选及汇总统计
  18. 在html图片上方叠加一个半透明颜色层,并在半透明颜色层上叠加文字
  19. tshark简单使用-wireshark
  20. Linux 6.2 最新合并情况:拓展 ArmSoc 支持,华为代码加速核心功能 715 倍!

热门文章

  1. python中newline什么意思,\newline转义序列在python中是什么意思?
  2. 如果宁静是Oracle,那万茜,张雨绮,黄圣依 是什么?(附姐姐信息表)
  3. 深度伪造检测论文 · Combining EfficientNet and Vision Transformers for Video Deepfake Detection
  4. 室内眩光测量UGR测试系统
  5. 测试分析——熟悉被测软件
  6. Python 计算 log以2为底的对数
  7. 计算机和我的关系 论文参考文献,近几年计算机学生参考文献 计算机学生期刊参考文献哪里找...
  8. linux 嵌入式 播放器,基于Linux的嵌入式媒体播放器研究
  9. java窗体怎么实现下拉菜单_java之swing下拉菜单实现方法
  10. 国科大本科生9个月设计出处理器芯片 可运行Linux系统