淘宝用户行为分析项目

说明:项目通过jupter notebook。使用pandas,numpy,matplotlib,seaborn等第三方库对数据进行不同维度上的分析。

一、项目背景

本数据报告以淘宝app平台为数据集,通过行业的指标对淘宝用户行为进行分析,从而探索淘宝用户的行为模式,具体指标包括:日PV和日UV分析,付费率分析,复购行为分析,漏斗流失分析和用户价值RFM分析。

二、数据源

链接: https://pan.baidu.com/s/1468_ZeV0N_J1_FSyUgEMeQ
提取码:3c5c

三、要解决的问题

1.日pv有多少

2.日uv有多少

3.付费率情况

4.复购率是多少

5.漏斗流失情况如何

6.用户价值情况

四、数据说明

本数据集共有104万条左右数据,数据为淘宝APP2014年11月18日至2014年12月18日的用户行为数据,共计6列字段,列字段分别是:

user_id:用户身份,脱敏

item_id:商品ID,脱敏

behavior_type:用户行为类型(包含点击、收藏、加购物车、支付四种行为,分别用数字1、2、3、4表示)

user_geohash:地理位置

item_category:品类ID(商品所属的品类)

time:用户行为发生的时间

五、数据清洗

# 导入必要库
import pandas as pd
import numpy as py
%matplotlib inline
import matplotlib.pyplot as plt
import seaborn as sns
import re
# 导入数据(注意:需要输入数据的绝对路径)
data_user=pd.read_csv('E:/PythonData/tianchi_mobile_recommend_train_user.csv')
# 查看缺失值
missingTotal = data_user.isnull().sum()
missingTotal

# 查看前5行数据
data_user.head()

# 通过正则表达式分别提取日期和时间
import re
# 提取日期
data_user['date'] = data_user['time'].map(lambda s:re.compile(' ').split(s)[0])
# 通过正则表达式提取小时
data_user['hour'] = data_user['time'].map(lambda s:re.compile(' ').split(s)[1])
# 查看数据
data_user.head()

# 查看数据类型
data_user.dtypes

# 将日期和时间转换成相对应的格式
data_user['date']=pd.to_datetime(data_user['date'])
data_user['time']=pd.to_datetime(data_user['time'])#将小时转换成整形
data_user['hour']=data_user['hour'].astype('int64')
data_user.dtypes

# 将数据通过time字段进行升序排列
data_user = data_user.sort_values(by='time',ascending=True)# 排序之后,重新设置索引,得到新的数据集
data_user = data_user.reset_index(drop=True)
data_user

# 查看数据的统计数据
data_user.describe()

六、用户行为分析

1、pv和uv分析

PV(访问量):即Page View, 具体是指网站的是页面浏览量或者点击量,页面被刷新一次就计算一次。

UV(独立访客):即Unique Visitor,访问您网站的一台电脑客户端为一个访客。

1、日访问量分析
# pv_daily记录每天用户操作次数,uv_daily记录每天不同的上线用户数量# 日访问量(对日期分组,并对用户id进行计数聚合。重新设置索引,将字段user_id重命名为pv)
pv_daily=data_user.groupby('date')['user_id'].count().reset_index().rename(columns={'user_id':'pv'})# 日访客量(操作同上,区别在于对不同的user_id进行去重计数)
uv_daily=data_user.groupby('date')['user_id'].apply(lambda x:x.drop_duplicates().count()).reset_index().rename(columns={'user_id':'uv'})#添加中文
plt.rcParams['font.sans-serif'] = ['SimHei']# 创建图形
plt.figure(figsize=(20,8),dpi=80)
plt.plot(pv_daily.date,pv_daily.pv)# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标注
plt.xlabel('日期',size=15)
plt.ylabel('访问量',size=15)#添加标题
plt.title('pv_daily(日访问量)',size=15)

# 创建图形
plt.figure(figsize=(20,8),dpi=80)
plt.plot(uv_daily.date,uv_daily.uv)# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标注
plt.xlabel('日期',size=15)
plt.ylabel('访客量',size=15)#添加标题
plt.title('uv_daily',size=15)


由上图:在双十二期间,访问量和访客量达到的峰值。

2、每小时访问量分析
#pv_hour记录每小时用户操作次数,uv_hour记录每小时不同的上线用户数量
# 每小时的访问量(对小时进行分组,然后对用户id进行计数聚合,重新设置索引,将用户id重命名为pv)
pv_hour=data_user.groupby('hour')['user_id'].count().reset_index().rename(columns={'user_id':'pv'})# 每小时访客量(操作同上,区别在于对用户id进行了去重计数)
uv_hour=data_user.groupby('hour')['user_id'].apply(lambda x:x.drop_duplicates().count()).reset_index().rename(columns={'user_id':'uv'})# 创建图形
plt.figure(figsize=(20,8),dpi=80)
plt.plot(pv_hour.hour,pv_hour.pv)# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标注
plt.xlabel('小时',size=15)
plt.ylabel('每小时访问量',size=15)#添加标题
plt.title('pv_hour(每小时访问量)',size=15)


由上图可见,在晚上8.00期间,访客量和访问量是最多的。

3、不同行为类型用户pv分析

# 对不同类型的用户行为和小时进行分组
pv_detail=data_user.groupby(['behavior_type','hour'])['user_id'].count().reset_index().rename(columns={'user_id':'total_pv'})# 查看前10行数据
pv_detail.head(10)

# 创建图形
plt.figure(figsize=(20,8),dpi=80)# 绘制不同行为类型用户的每小时pv情况折线图
plt.plot(pv_detail[pv_detail.behavior_type==1].hour,pv_detail[pv_detail.behavior_type==1].total_pv,label='点击',color='r')
plt.plot(pv_detail[pv_detail.behavior_type==2].hour,pv_detail[pv_detail.behavior_type==2].total_pv,label='收藏',color='b')
plt.plot(pv_detail[pv_detail.behavior_type==3].hour,pv_detail[pv_detail.behavior_type==3].total_pv,label='加购物车',color='y')
plt.plot(pv_detail[pv_detail.behavior_type==4].hour,pv_detail[pv_detail.behavior_type==4].total_pv,label='支付',color='g')# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标注
plt.xlabel('时间/小时',fontsize=12)
plt.ylabel('数量',fontsize=12)# 添加图例
plt.legend(loc='best',fontsize=15)# 添加标题
plt.title('不同用户行为pv分析',fontsize=15)

3.1 仅对比用户行为为收藏、加购物车、支付的pv情况

# 创建图形
plt.figure(figsize=(20,8),dpi=80)# 绘制收藏、加购物车、支付的pv折线图
plt.plot(pv_detail[pv_detail.behavior_type==2].hour,pv_detail[pv_detail.behavior_type==2].total_pv,label='收藏',color='b')
plt.plot(pv_detail[pv_detail.behavior_type==3].hour,pv_detail[pv_detail.behavior_type==3].total_pv,label='加购物车',color='y')
plt.plot(pv_detail[pv_detail.behavior_type==4].hour,pv_detail[pv_detail.behavior_type==4].total_pv,label='支付',color='g')# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标注
plt.xlabel('时间/小时',fontsize=15)
plt.ylabel('数量',fontsize=15)# 添加图例
plt.legend(loc='best',fontsize=20)# 添加标题
plt.title('不同类型用户行为pv分析2',size=15)

由上图图表显示:

点击这一用户行为相比较于其他三类用户行为,pv访问量较高,同时四种用户行为的波动情况基本一致,因此晚上这一时间段不管哪一种用户行为,pv访问量都是最高的。

从图2可以看出,加入购物车这一用户行为的pv总量高于收藏的总量,因此在后续漏斗流失分析中,用户类型3应该在2之前分析。

七、用户消费行为分析

1、用户购买次数情况分析
# 对数据进行筛选,类型4为支付。对用户id进行分组,对支付类型的数量进行计聚合
data_user_buy=data_user[data_user.behavior_type==4].groupby('user_id')['behavior_type'].count()# 得到的data_user_buy 为以为序列,索引用户id,值代表为该用户的支付次数
data_user_buy.head(10)

# 绘制频数直方图,查看购买次数及对应人数的分布
# 创建图形
plt.figure(figsize=(20,8),dpi=80)# 绘制频数直方图
plt.hist(data_user_buy,bins=50,color = 'steelblue',edgecolor = 'k')# 调整刻度
plt.xticks(range(100)[::10],size=12)plt.xlim(0,100)# 添加标注
plt.xlabel('人数',size=15)
plt.ylabel('购买次数',size=15)# 添加标题
plt.title('daily_user_buy',size=15)

# 绘制频率直方图
plt.figure(figsize=(20,8),dpi=80)# 创建频率直方图
plt.hist(data_user_buy,bins=50,color = 'steelblue',edgecolor = 'k',density = True)# 调整刻度
plt.xticks(range(100)[::10],size=12)# 添加标注
plt.xlabel('人数',size=15)
plt.ylabel('频率',size=15)# 添加标题
plt.title('daily_user_buy',size=15)plt.xlim(0,100)
plt.show()

2、日ARPPU

ARPPU(average revenue per paying user)是指从每位付费用户身上获得的收入,它反映的是每个付费用户的平均付费额度。

ARPPU=总收入/活跃用户付费数量

因为本数据集中没有消费金额,因此在计算过程中用消费次数代替消费金额

人均消费次数=消费总次数/消费人数

# 创建新的DataFrame,重新设置索引0,1,2,3... ...
data_use_buy1=data_user[data_user.behavior_type==4].groupby(['date','user_id'])['behavior_type'].count().reset_index().rename(columns={'behavior_type':'total'})# 查看前10行数据
data_use_buy1.head(10)

data_use_buy1 = data_use_buy1.groupby('date').apply(lambda x:x.total.sum()/x.total.count())# 查看数据
data_use_buy1.head()

plt.figure(figsize=(20,8),dpi=80)
plt.plot(data_use_buy1)#调整刻度
plt.xticks(size=13)
plt.yticks(size=13)# 添加标注
plt.xlabel('日期',size=20)
plt.ylabel('人均消费次数',size=20)# 添加标题
plt.title('人均消费次数',size=20)


图表显示:平均每天消费次数在1-2次之间波动,双十二期间消费次数达到最高值。

3、日ARPU

ARPU(Average Revenue Per User) :平均每用户收入,可通过 总收入/AU 计算得出。它可以衡量产品的盈利能力和发展活力。

活跃用户数平均消费次数=消费总次数/活跃用户人数(每天有操作行为的为活跃)

data_user['operation']=1
data_use_buy2=data_user.groupby(['date','user_id','behavior_type'])['operation'].count().reset_index().rename(columns={'operation':'total'})data_use_buy2 = data_use_buy2.groupby('date').apply(lambda x:x[x.behavior_type==4].total.sum()/len(x.user_id.unique()))# 查看前5行数据
data_use_buy2.head()

# 创建图形
plt.figure(figsize=(20,8),dpi=80)
# 绘制折线图
plt.plot(data_use_buy2)# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标志
plt.xlabel('日期',size=15)
plt.ylabel('平均消费次数',size=15)# 添加标题
plt.title('活跃用户数平均消费次数',size=15)# 显示图形
plt.show()

4、日付费率

付费率=消费人数/活跃用户人数

data_use_buy2=data_user.groupby(['date','user_id','behavior_type'])['operation'].count().reset_index().rename(columns={'operation':'total'})
daily_afford_rate = data_use_buy2.groupby('date').apply(lambda x:x[x.behavior_type==4].total.count()/len(x.user_id.unique()))# 查看前5行数据
daily_afford_rate.head()

# 创建图形
plt.figure(figsize=(20,8),dpi=80)
# 绘制折线图
plt.plot(daily_afford_rate)# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加备注
plt.xlabel('日期',size=15)
plt.ylabel('付费率',size=15)# 添加标题
plt.title('日付费率',size=15)# 显示图形
plt.show()

5、同一时间段用户消费次数分布

data_user_buy3=data_user[data_user.behavior_type==4].groupby(['user_id','date','hour'])['operation'].sum().rename('buy_count')plt.figure(figsize=(20,8),dpi=80)
plt.hist(data_user_buy3,bins=50,density = True)# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标注
plt.xlabel('购买次数',size=15)
plt.ylabel('频率',size=15)# 添加标题
plt.title('同一时间用户消费次数分布')print('大多数用户消费:{}次'.format(data_user_buy3.mode()[0]))

大多数用户消费:1次

八、复购情况分析

1、复购率

复购情况,即两天以上有购买行为,一天多次购买算一次
复购率=有复购行为的用户数/有购买行为的用户总数

date_rebuy=data_user[data_user.behavior_type==4].groupby('user_id')['date'].apply(lambda x:len(x.unique())).rename('rebuy_count')# 复购行为筛选:date_rebuy>=2,保留4位有效数字
print('复购率:',round(date_rebuy[date_rebuy>=2].count()/date_rebuy.count(),4))

复购率: 0.8717

2、所有复购时间间隔消费次数分布
data_day_buy=data_user[data_user.behavior_type==4].groupby(['user_id','date']).operation.count().reset_index()
data_user_buy4=data_day_buy.groupby('user_id').date.apply(lambda x:x.sort_values().diff(1).dropna())
data_user_buy4=data_user_buy4.map(lambda x:x.days)# 创建图形
plt.figure(figsize=(20,8),dpi=80)# 绘制条形图
data_user_buy4.value_counts().plot(kind='bar')# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标注
plt.xlabel('gap_day',size=15)
plt.ylabel('gap_count',size=15)# 添加标题
plt.title('time_gap',size=15)


多数用户复购率为 0.8717,消费次数随着消费时间间隔的增加而不断下降,在1-10天之内复购次数比较多,10天之后复购次数淘宝用户很少在进行复购,因此需要重视10天之内的淘宝用户复购行为,增加用户复购。不同用户平均复购时间呈正态分布,但是总体来看,呈现逐渐下降趋势。多数淘宝用户平均复购时间集中在1-5天时间间隔内。

3、不同用户平均复购时间分析

# 创建图形
plt.figure(figsize=(20,8),dpi=80)# 绘制平均复购时间分布直方图
sns.distplot(data_user_buy4.reset_index().groupby('user_id').date.mean())# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标注
plt.xlabel('gap_day',size=15)
plt.ylabel('gap_count',size=15)# 添加标题
plt.title('time_gap',size=15)


由上图:不同用户平均复购时间呈正态分布。从总体来看,呈现逐渐下降趋势。多数淘宝用户平均复购时间集中在1-5天时间间隔内。

九、漏斗流失分析

漏斗分析是一套流程式数据分析,它能够科学反映用户行为状态以及从起点到终点各阶段用户转化率情况的重要分析模型。

1、计算各个阶段的流失率

注:在上面不同行为类型用户pv分析中,加入购物车这一用户行为的pv总量高于收藏的总量,因此在漏斗流失分析中,用户类型3应该在2之前分析。

# 对用户类型进行分组,然后进行计数
# 对所有的id进行计数(1:点击 2:收藏 3:加购物车 4:支付)
pv_all=data_user['user_id'].count()
pv_1 = data_user[data_user.behavior_type==1]['user_id'].count()
pv_2 = data_user[data_user.behavior_type==2]['user_id'].count()
pv_3 = data_user[data_user.behavior_type==3]['user_id'].count()
pv_4 = data_user[data_user.behavior_type==4]['user_id'].count()print(pv_all,pv_1,pv_2,pv_3,pv_4)

12256906 11550581 242556 343564 120205

# 各个阶段的流失率计算
Wastage_rate1 = round(1-pv_1/pv_all,4)
Wastage_rate2 = round(1-pv_3/pv_1,4)
Wastage_rate3 = round(1-pv_2/pv_3,4)
Wastage_rate4 = round(1-pv_4/pv_2,4)# 格式化输出各个流失率
print('总浏览量—点击量的流失率为%s%%'%(Wastage_rate1*100))
print('点击量-加入购物车量的流失率为%s%%'%(Wastage_rate2*100))
print('加入购物车量-收藏量的流失率为%s%%'%(Wastage_rate3*100))
print('收藏量-购买量的流失率为%s%%'%(Wastage_rate4*100))

十、用户行为与商品种类关系分析

1、不同用户行为类别的转化率

data_category=data_user[data_user.behavior_type!=2].groupby(['item_category','behavior_type']).operation.count().unstack(1).rename(columns={1:'点击量',3:'加入购物车量',4:'购买量'}).fillna(0)# 查看前10行数据
data_category.head(10)

#转化率计算
data_category['转化率']=data_category['购买量']/data_category['点击量']
data_category.head(10)

#异常值处理
data_category=data_category.fillna(0)
data_category=data_category[data_category['转化率']<=1]# 创建图形
plt.figure(figsize=(20,8),dpi=80)#转化率绘图
sns.distplot(data_category['转化率'])# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标注
plt.xlabel('转化率',fontsize=15)
plt.ylabel('density',fontsize=15)# 添加标题
plt.title('转化率分布',size=15)


图表显示:基本上各种用户行为类型转换率都在0.1以内,同时绝大多数用户都没有购买情况,需要重点关注出现该现象的原因进行分析改进。

2、感兴趣比率

data_category['感兴趣比率']=data_category['加入购物车量']/data_category['点击量']
data_category.head(10)

#异常值处理,感兴趣比率绘图
data_category=data_category[data_category['感兴趣比率']<=1]# 创建图形
plt.figure(figsize=(20,8),dpi=80)
sns.distplot(data_category['感兴趣比率'])# 调整刻度
plt.xticks(size=12)
plt.yticks(size=12)# 添加标注
plt.xlabel('感兴趣比率',fontsize=15)
plt.ylabel('density',fontsize=15)添加标题
plt.title('感兴趣比率分布情况',size=15)


图表显示:感兴趣率和转化率类似,基本也是0.1以内,说明用户点击的绝大多数商品并非感兴趣,需要重视推荐系统的调整。

十一、二八理论分析

二八定律:在任何一组东西中,最重要的只占其中一小部分,约20%,其余80%尽管是多数,却是次要的,因此又称二八定律。

#二八理论和长尾理论
data_category=data_category[data_category['购买量']>0]
value_8=data_category['购买量'].sum()*0.8
value_10=data_category['购买量'].sum()
data_category=data_category.sort_values(by='购买量',ascending=False)
data_category['累计购买量']=data_category['购买量'].cumsum()
data_category['分类']=data_category['累计购买量'].map(lambda x:'前80%' if x<=value_8 else '后20%')
data_category.head()

data_category.groupby('分类')['分类'].count()/data_category['分类'].count()


图表显示:前80%销量有15%左右的商品品类承包,接近二八原则。但我们也看出有接近20%的销量由85%的商品品类提供。

对于传统零售行业,因为成本高,因此只能局限于这前20%的商品提供利润;

对于电子商务,空间成本减少乃至为0,使后80%的商品也可以销售出去,因此将长尾部分的商品优化推荐好,能够给企业带来更大的收益。

十二、用户价值度RFM模型分析

RFM的含义:

R(Recency):客户最近一次交易时间的间隔。R值越大,表示客户交易发生的日期越久,反之则表示客户交易发生的日期越近。

F(Frequency):客户在最近一段时间内交易的次数。F值越大,表示客户交易越频繁,反之则表示客户交易不够活跃。

M(Monetary):客户在最近一段时间内交易的金额。M值越大,表示客户价值越高,反之则表示客户价值越低。

RFM分析就是根据客户活跃程度和交易金额的贡献,进行客户价值细分的一种方法。

from datetime import datetime
datenow=datetime(2014,12,20)#每位用户最近购买时间
recent_buy_time=data_user[data_user.behavior_type==4].groupby('user_id').date.apply(lambda x:datetime(2014,12,20)-x.sort_values().iloc[-1]).reset_index().rename(columns={'date':'recent'})
recent_buy_time.recent=recent_buy_time.recent.map(lambda x:x.days)#每个用户消费频率
buy_freq=data_user[data_user.behavior_type==4].groupby('user_id').date.count().reset_index().rename(columns={'date':'freq'})
rfm=pd.merge(recent_buy_time,buy_freq,left_on='user_id',right_on='user_id',how='outer')#将各维度分成两个程度,分数越高越好
rfm['recent_value']=pd.qcut(rfm.recent,2,labels=['2','1'])
rfm['freq_value']=pd.qcut(rfm.freq,2,labels=['1','2'])
rfm['rfm']=rfm['recent_value'].str.cat(rfm['freq_value'])
rfm.head(10)

表格显示:因为本数据集没有提供消费金额,因此只能R和F进行用户价值分析,通过RF用户价值分析,对于22用户,为重点用户需要关注;对于21这类忠诚度高而购买能力不足的,可以可以适当给点折扣或捆绑销售来增加用户的购买频率。对于12这类忠诚度不高而购买能力强的,需要关注他们的购物习性做精准化营销。

淘宝用户行为分析项目相关推荐

  1. 阿里天池:淘宝用户行为分析项目

    数据来源:阿里天池 - 淘宝用户商品行为数据 (在这里仅选用表名为 "tianchi_mobile_recommend_train_user" 中的数据,用作淘宝用户行为分析) 项 ...

  2. 淘宝用户行为分析项目:Python

    一.分析背景   网购已经成为人们生活不可或缺的一部分,本次项目基于淘宝app平台数据,通过相关指标对用户行为进行分析,从而探索用户相关行为模式. 本文使用的数据集包含了2014.11.18到2014 ...

  3. Python项目实战 —— 04. 淘宝用户行为分析

    Python项目实战 Python项目实战--目录 Python项目实战 -- 04. 淘宝用户行为分析 一.背景 二.解题思路 三.数据分析 3.1 数据清洗 3.2 数据分析 3.2.1 用户整体 ...

  4. Python数据分析案例—淘宝用户行为分析

    赛题与数据 一.项目背景 本数据报告以淘宝app平台为数据集,通过行业的指标对淘宝用户行为进行分析,从而探索淘宝用户的行为模式,具体指标包括:日PV和日UV分析,付费率分析,复购行为分析,漏斗流失分析 ...

  5. MySQL—淘宝用户行为分析

    文章目录 一.项目背景 二.结论先行 2.1用户行为漏斗转化分析 2.2时间维度分析用户行为 2.3商品维度分析用户行为 2.4RFM模型用户价值分析 三.数据分析 3.1数据来源 3.2数据说明 3 ...

  6. 淘宝用户行为分析MySQL

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 淘宝用户行为分析MySQL 一.数据清洗 二.总体情况 1.UV.PV.人均浏览次数 2.复购率.跳失率 三.用户行为分析 1.行为转 ...

  7. MySQL数据项目分析实战——淘宝用户行为分析

    MySQL数据项目分析实战--淘宝用户行为分析 一.项目背景 二.项目目标 2.1分析目的 2.2分析维度 三.数据的收集与整理 3.1数据来源 3.2数据说明 3.3理解数据 3.4导入数据 四.数 ...

  8. 数据分析实战之淘宝用户行为分析(3) -- 用户行为路径分析

    数据分析实战之淘宝用户行为分析(3) -- 用户行为路径分析 淘宝行为分析Tableau可视化展示 数据分析实战之淘宝用户行为分析(5) - 数据分析报告 数据分析实战之淘宝用户行为分析(4) - 用 ...

  9. 数据分析项目实战1——淘宝用户购买行为分析(天池)

    一.分析背景.数据来源.数据解释 https://tianchi.aliyun.com/dataset/649 由于userbehavior数据集的数据量较大,本次分析使用Navicat将前10万条数 ...

最新文章

  1. 刻意练习:LeetCode实战 -- Task15. 有效的括号
  2. 在两个页面间翻转设置Animation动作的一些总结
  3. maven工程错误汇总
  4. vue中简单的小插曲
  5. 离职潮来袭,但为什么HR还是很难招到人?
  6. 一场让我持续懵比的面试
  7. Gambit 2.Gambit解释器
  8. PDF转CAD怎么弄?可以尝试一下这两种方法
  9. python 生信分析_提速Python!无论生信分析还是数据分析
  10. php liger 表格排序,LigerUI中通过加载服务端数据进行表格的分页显示
  11. 太一星晨:负载均衡啃不动的骨头交给应用交付
  12. ps读写ddr3里面的数据 zynq_DDR3读写数据调试
  13. Si512 支持 NFC 协议超低功耗检卡能非接触式读卡芯片
  14. 网易邮箱显示附件上传不成功,请重试!(错误码:FR_INVALID_REQUEST) 的解决方法
  15. python无法正常启动0xc000007b_应用程序无法正常启动(0xc000007b)。
  16. 区块链如何改变供应链金融
  17. 通过iscsi协议使用ceph rbd
  18. nginx开启Gzip压缩,Vue性能优化之使用gzip压缩打包
  19. 68个经典励志小故事,让你终身受益[转]
  20. 64位系统使用Access 数据库文件遇到的错误和解决办法

热门文章

  1. 如何卸载 IDEA 破解补丁 Betterintellij ?
  2. Linux基础工具|文本编辑器Vim的使用
  3. 基于强化学习的智能系统架构设计与实现
  4. 各类船舶作业注意事项(昼夜计划表)
  5. Java后端面试准备
  6. 您的连接不是私密连接解决办法
  7. 基于亚马逊云科技 Serverless架构的实时数仓架构
  8. 电子信息/通信保研/考研复试经验贴,保姆级经验之导师套磁信
  9. 柯西-施瓦茨不等式(Cauchy-Schwarz Inequality)的四种形式
  10. android 1g运行内存不足,内存不足每隔一次运行,在Android上