Python库-pandas详解

  • 1. pandas介绍
  • 2. Series
  • 3. DataFrame
    • 3.1 DataFrame结构
    • 3.2 DataFrame属性与方法
    • 3.2 DataFrame索引的设置
  • 4. 基本数据操作
    • 4.1 索引重命名
    • 4.2 通过索引操作数据
    • 4.3 排序
  • 5. DataFrame运算
    • 5.1 算术运算
    • 5.2 逻辑运算
    • 5.3 统计运算
    • 5.4 自定义运算
  • 6. pandas画图
  • 7. 文件的读取和存储
  • 8. 数据的高级处理
    • 8.1 缺失值处理
    • 8.2 数据离散化处理
    • 8.3 数据合并
    • 8.4 交叉表与透视表
    • 8.5 分组与聚合

1. pandas介绍

pandas 是用于数据挖掘的Python库

  • 便捷的数据处理能力
  • 独特的数据结构
  • 读取文件方便
  • 封装了matplotlib的画图和numpy的计算

pandas的数据结构

  • Series

    • Series 类似表格中的一个列(column),类似于一维数组,可以保存任何数据类型。由索引(index)和列组成。
  • DataFrame
    • DataFrame 是一个表格型的数据结构,每列可以是不同的值类型(数值、字符串、布尔型值)。DataFrame 既有行索引也有列索引,它可以被看做由 Series 组成的字典。

案例应用

创建一个符合正态分布的10个股票5天的涨跌幅数据,使用pandas中的数据结构 DataFrame() 处理数据

# 导入库
import numpy as np
import pandas as pd# 创建一个符合正态分布的10个股票5天的涨跌幅数据
stocks = np.random.normal(0, 1, [10, 5])
# 使用pandas中的数据结构 DataFrame() 处理数据
stocks_rise = pd.DataFrame(stocks)
# 设置行索引,获取行数 stocks_rise.shape[0] 进行遍历 列表生成式
index_row = ['股票{}'.format(i+1) for i in range(stocks_rise.shape[0])]
# 设置列索引,日期是一个时间序列,为了简便,使用pd.date_range()生成一组连续的时间序列
# pd.date_range(start,end,periods,freq) start:开始时间, end:结束时间
# periods:时间天数, freq:递进单位,默认1天,'B'默认略过周末
index_col = pd.date_range(start='20220201',periods=stocks_rise.shape[1],freq='B')
# 添加索引,注意数据是ndarray数据 index表示行索引,columns表示列索引
data = pd.DataFrame(stocks, index=index_row, columns=index_col)
print(data)2022-02-01  2022-02-02  2022-02-03  2022-02-04  2022-02-07
股票1    -2.054041   -1.170757    0.162393    0.253333   -1.638837
股票2    -1.463734    0.408459    0.530070   -0.925281    1.454630
股票3    -0.511517   -0.827591   -2.076265    0.139486    0.658707
股票4    -1.698789    0.250902   -0.624713    1.378845   -1.672292
股票5     0.683233   -1.083694    0.810567    0.421215    1.375385
股票6    -0.296111   -0.946959    0.836536   -1.179879   -0.397406
股票7     0.017772    0.180210    2.022776    0.436337   -1.555866
股票8     0.638262   -0.790932    1.077822   -1.746631   -0.591360
股票9    -0.681391   -0.613255   -1.849094    0.438304   -0.503742
股票10   -0.243500   -1.733623   -1.137840    0.124976   -0.415727

2. Series

pd.Series( data, index, dtype, name, copy)

参数说明:data:一组数据(ndarray 类型)。
index:数据索引标签,如果不指定,默认从 0 开始。
dtype:数据类型,默认会自己判断。
name:设置名称。
copy:拷贝数据,默认为 False。

Series实例

# 通过数组创建Series
s = pd.Series([6, 5, 2], index=['x', 'y', 'z'])
print(s)
x    6
y    5
z    2
# 通过字典创建Series
s = pd.Series({'day': 2,'month': 2,'year': 2022
})
print(s)
day         2
month       2
year     2022
dtype: int64
# 通过索引操作数据
print(s['year'])
2022

3. DataFrame

3.1 DataFrame结构

DataFrame对象既有行索引,又有列索引

  • 行索引:表明不同行,横向索引,叫index,axis=0
  • 列索引:表明不同列,纵向索引,叫columns,axis=1

3.2 DataFrame属性与方法

  • shape DataFrame的形状
  • index DataFrame行索引
  • columns DataFrame列索引
  • values DataFrame的值
  • T DataFrame转置
  • head(n) DataFrame的前n行,默认为前5行
  • tail(n) DataFrame的后n行,默认为后5行
print(data.shape)  # (10, 5)
print(data.index)
# Index(['股票1', '股票2', '股票3', '股票4', '股票5', '股票6', '股票7', '股票8', '股票9', '股票10'], dtype='object')
print(data.columns)
# DatetimeIndex(['2022-02-01', '2022-02-02', '2022-02-03', '2022-02-04',
#                '2022-02-07'],
#               dtype='datetime64[ns]', freq='B')
print(data.values)
print(data.T)

3.2 DataFrame索引的设置

1 修改行列索引值

  • 必须整体全部修改,不能单独修改某个索引
index_row2 = ['股票_{}'.format(i + 1) for i in range(stocks_rise.shape[0])]
data.index = index_row2
print(data)

2 重设索引

  • reset_index(drop=False)

    • 设置新的下标索引
    • drop:默认为False,不删除原来索引
# 重设索引
print(data.reset_index(drop=False))

3 以某列值设为新的索引

  • set_index(keys,drop=True)

    • keys:列索引名称或者列索引名称的列表
    • drop:默认为True,当作新的索引,删除原来索引
# 创建
df = pd.DataFrame({'month': [1, 4, 7, 10],'year': [2018, 2019, 2020, 2021],'sale': [55, 40, 84, 33]
})
print(df)month  year  sale
0      1  2018    55
1      4  2019    40
2      7  2020    84
3     10  2021    33
# 以月份设置新的索引
print(df.set_index('month'))year  sale
month
1      2018    55
4      2019    40
7      2020    84
10     2021    33
# 设置多个索引,以年和月份
# 如果设置索引是两个的时候,就是multiIndex
print(df.set_index(['year', 'month']))sale
year month
2018 1        55
2019 4        40
2020 7        84
2021 10       33

4. 基本数据操作

4.1 索引重命名

  • rename(mapper=None,inplace=False)

    • mapper:映射结构,修改columns或index要传入一个映射体,可以是字典、函数
    • inplace:默认为False,不改变数据,返回一个新的DataFrame

4.2 通过索引操作数据

1. 直接使用行列索引(先列后行)

  • 先行后列会报错
  • 不支持切片,会报错
stocks = np.random.normal(0, 1, [10, 5])
stocks_rise = pd.DataFrame(stocks)
index_row = ['股票{}'.format(i + 1) for i in range(stocks_rise.shape[0])]
index_col = pd.date_range(start='20220201', periods=stocks_rise.shape[1], freq='B')
data = pd.DataFrame(stocks, index=index_row, columns=index_col)
print(data.head())2022-02-01  2022-02-02  2022-02-03  2022-02-04  2022-02-07
股票1    0.663384    1.936687    1.992576    2.009280   -0.723381
股票2   -2.441452    0.081647   -0.738524   -0.620358   -1.930378
股票3    2.026646   -0.324842   -0.478456   -0.840363    1.492842
股票4   -0.188968   -1.180816    0.733197   -0.078608   -1.056264
股票5    1.219254   -1.738242    0.473682    0.288252    3.513113
# 索引先列后行获取数据
print(data['2022-02-03']['股票3'])
-0.47845617563179627# print(data['股票3']['2022-02-03']) # 先行后列会报错
# print(data[:1, :2]) # 不支持切片,会报错

2. 结合loc或iloc使用索引(先行后列)

  • loc 通过索引名称访问
  • iloc 通过索引下标访问,支持切片
print(data.loc['股票3']['2022-02-03'])
print(data.iloc[1, 1])
print(data.iloc[:3, :4])
  • loc或iloc还可以进行组合索引访问
# 获取前5行,两列的值
print(data.loc[data.index[:5], ['2022-02-01', '2022-02-02']])
print(data.iloc[0:5, data.columns.get_indexer(['2022-02-01', '2022-02-02'])])

4.3 排序

1. sort_values(by=,ascending=) 对内容进行排序

  • by:根据单个键或者多个键(优先级从前到后)进行排序,默认升序 ascending=True
  • ascending=False,降序
print(data.sort_values(by='2022-02-01', ascending=False))
print(data.sort_values(by=['2022-02-01', '2022-02-02'], ascending=False))

2. sort_index(ascending=) 对索引进行排序

  • 默认升序 ascending=True, 降序为False
print(data.sort_index(ascending=False))
说明:Series的排序方法与DataFrame方法一致,因为只有一列,也不用指定键,只需要指定是升序或降序

5. DataFrame运算

5.1 算术运算

和一般算数运算方法类似,举几个例子

import pandas as pd
df = pd.DataFrame({'month': [1, 4, 7, 10],'year': [2018, 2019, 2020, 2021],'sale': [55, 40, 84, 33]
})
n = df['sale'][0]   # 55
print(n.__add__(2))    # 加法运算 <=> +
print(n.__sub__(2))    # 减法运算 <=> -
print(n.__mul__(2))    # 乘法运算 <=> *
print(n.__divmod__(2)) # 除余,得到商和余数 (商, 余数)
print(n.__mod__(2))    # 模运算(余数)<=> %
print(n.__abs__())    # 绝对值运算

5.2 逻辑运算

  • 逻辑运算符号 < > | &

    • 获取逻辑运算结果
    • 将逻辑运算结果作为筛选条件进行数据筛选
print(df)month  year  sale
0      1  2018    55
1      4  2019    40
2      7  2020    84
3     10  2021    33
# 获取逻辑运算结果
print(df['sale'] > 50)
0     True
1    False
2     True
3    False
# 逻辑运算结果可以作为筛选的条件
print(df[df['sale'] > 50])
Name: sale, dtype: boolmonth  year  sale
0      1  2018    55
2      7  2020    84
  • 逻辑运算函数

    • query(expr) 通过条件字符串进行查询符合条件的数据
    • isin(values) 对数据进行逻辑判断,判断数据是否在指定的values中
print(df.query('sale > 35 & sale < 80'))month  year  sale
0      1  2018    55
1      4  2019    40print(df['sale'].isin([30, 40]))
0    False
1     True
2    False
3    False
Name: sale, dtype: bool

5.3 统计运算

  • describe() 综合分析,统计数量count,平均值mean,标准差std,最大值,最小值等
print(data.head().describe())2022-02-01  2022-02-02  2022-02-03  2022-02-04  2022-02-07
count    5.000000    5.000000    5.000000    5.000000    5.000000
mean     0.731207    0.016387   -0.292730   -0.050105    0.491857
std      0.692347    1.184870    1.038632    0.897436    0.808612
min     -0.019900   -1.273726   -1.526506   -0.766793   -0.416006
25%      0.558542   -0.963643   -1.228403   -0.563485    0.043999
50%      0.581686   -0.036380   -0.031193   -0.553368    0.136538
75%      0.665749    0.797005    0.541065    0.229670    1.331016
max      1.869961    1.558681    0.781386    1.403449    1.363740
  • 描述性统计函数

对于单个函数去统计的时候,坐标轴还是按照默认columns(axis=0),如需要对行统计,指定axis=1

函数名称 描述说明
count() 统计某个非空值的数量
sum() 求和
mean() 求均值
median() 求中位数
mode() 求众数
std() 求标准差
min() 求最小值
max() 求最大值
idxmax 最大值的索引
idxmin 最小值的索引
abs() 求绝对值
prod() 求所有数值的乘积
cumsum() 计算累计和
cumprod() 计算累计积
  • 其他统计函数
函数名称 描述说明
pct_change() 百分比函数:将每个元素与其前一个元素进行比较,并计算前后数值的百分比变化
cov() 协方差函数:用来计算 Series 对象之间的协方差。该方法会将缺失值(NAN )自动排除
corr() 相关系数:计算数列或变量之间的相关系数,取值-1到1,值越大表示关联性越强,会排除NAN 值

5.4 自定义运算

apply(func,axis)

  • func:自定义运算函数
  • axis:默认为0,对列运算

6. pandas画图

对象.plot(x=None,y=None,kind=‘line’)

  • x和y表示标签或者位置,默认为None
  • kind:表示绘图的类型,默认为line,折线图
    • line:折线图
    • bar/barh:柱状图
    • hist:直方图
    • pie:饼状图
    • area:区域图
    • scatter:散点图
import matplotlib.pyplot as pltrise = data.loc['股票1'].cumsum()
print(rise)
rise.plot() # 画图
plt.show()  # 显示

7. 文件的读取和存储

pandas支持的常用文件类型包括:HDF5、CSV、SQL、XLS、JSON等

1.CSV

  • pd.read_csv(‘filepath_or_buffer’, usecols=[]) 读取csv文件数据

    • filepath_or_buffer:文件路径
    • sep:分隔符,默认为’,’
    • usecols:指定读取的列名,列表形式
import pandas as pddata = pd.read_csv(r'../../fodder/stocks.csv', usecols=['open', 'high', 'low', 'close'])
print(data.head())open   high    low  close
0  29.76  29.97  29.52  29.96
1  28.49  29.51  28.42  29.50
2  28.76  28.95  28.47  28.50
3  28.41  28.95  28.32  28.90
4  28.37  28.61  28.33  28.36
  • df.to_csv(path_or_buf,columns=[],index=True,mode=‘w’) 将数据存储到csv文件中

    • path_or_buf:文件存放的路径
    • sep:分隔符,默认为’,’
    • columns:列,列表形式
    • mode:‘w’:重写,‘a’:追加
    • header:是否写进列索引值
    • index:是否写进行索引,默认True写进行索引,会将行索引变成一列数据
    • encoding:编码格式,默认为None
# 将前十行数据写进新的文件中 index设置False,不写行索引
data[:10].to_csv(r'../../fodder/test.csv', columns=['open', 'close'], index=False)
# 查看写进文件的数据
data2 = pd.read_csv(r'../../fodder/test.csv')
print(data2)open  close
0  29.76  29.96
1  28.49  29.50
2  28.76  28.50
3  28.41  28.90
4  28.37  28.36
5  27.48  28.34
6  27.66  27.84
7  28.03  27.55
8  28.65  28.37
9  28.39  28.84

2.HDF5

读取HDF5文件(.h5)需要安装tables模块

  • pd.read_hdf(path_or_buf, key=None) 读取HDF5文件

    • path_or_buf:文件路径
    • key:读取的键
  • df.to_hdf(path_or_buf, key) 写入HDF5文件
    • path_or_buf:文件路径
    • key:写入文件时,必须指定一个键
# 读取.h5文件数据
data = pd.read_hdf(r'../../fodder/stocks.h5')
print(data.head())
# 将数据写入.h5文件
data.to_hdf(r'../../fodder/test.h5', key='a')
data2 = pd.read_hdf(r'../../fodder/test.h5', key='a')
print(data2.head())

3.JSON

  • pd.read_jsonf(path_or_buf, orient=None,typ=‘frame’,lines=False) 读取json文件

    • path_or_buf:文件路径
    • orient:指定数据存储的json形式 ,{‘split’,‘records’,‘index’,‘columns’,‘valuse’}
    • typ:默认frame,指定转换成的对象类型Series或者DataFrame
    • lines:默认False,按照每行读取json
  • pd.to_jsonf(path_or_buf, orient=None,lines=False) 存储json文件
    • path_or_buf:文件路径
    • orient:指定数据存储的json形式
    • lines:默认False,一个对象存储为一行。一般设置为Ture
# 读取json文件
data = pd.read_json(r'../../fodder/33510.json', orient='records', lines=True)
print(data.head())
# 写入json文件
data.to_json(r'../../fodder/test.json', orient='records', lines=True)
data2 = pd.read_json(r'../../fodder/test.json')
print(data2.head())

8. 数据的高级处理

8.1 缺失值处理

缺失值NaN的类型是float

print(type(np.NAN))
<class 'float'>

1. 判断数据是否有缺失值

  • pd.isnull(df)
  • pd.notnull(df)
# 读取xls数据
data = pd.read_excel(r'../Python/demo/reptile/豆瓣电影TOP250/豆瓣电影TOP250.xls')
# 只要包含缺失值,就为True
np.any(pd.isnull(data))     # True

2. 处理NaN

  • 删除缺失值 dropna(inplace=False),前提是缺失值的类型必须是np.NaN
# dropna()方法可以指定是否在原数据上进行删除 默认inplace=False 不修改原数据
newdata = data.dropna()
np.any(pd.isnull(newdata))  # False
  • 替换缺失值 fillna(value,inplace=False)

    • value:替换后的值
    • inplace:默认False,表示不改变原数据,True表示在原数据上直接替换
for item in data.columns:
#     print(item) # 遍历所有列索引# 判断该列中是否含有缺失值if np.any(pd.isnull(data[item])):
#         print(item)# 对该列中的缺失值进行替换data[item].fillna(value="this is queshizhi", inplace=True)

3. 缺失值不是NaN的情况,如默认标记符号

比如数据中存在"?"符号,则可以先将符号替换为NaN,再进行处理。

  • 替换 replace(to_replace,value) ,在原数据上直接替换

    • to_replace:替换前的值
    • value:替换后的值
# 替换为np.NaN
data.replace(to_replace="?", value=np.NaN)
# 删除缺失值 在原数据上直接删除
data.dropna(inplace=True)

8.2 数据离散化处理

1. 为什么要离散化

连续属性离散化的目的是为了简化数据结构数据离散化技术可以用来减少给定连续属性值的个数,离散化方法经常作为数据挖掘的工具。

2. 什么是数据的离散化

连续属性的离散化就是在连续属性的值域上,将值域划分为着干个离散的区间,最后用不同的符号或整数值代表落在每个子区间中的属性值。

假设按照身高分几个区间段:150—165,165~180.180—195

这样我们将数据分到了三个区间段,我可以对应的标记为矮、中、高三个类别,最终要处理成一个“哑变量“矩阵

3. 数据离散化处理

one-hot编码介绍

One-Hot编码,又称为一位有效编码,是分类变量作为二进制向量的表示。one-hot 编码就是保证每个样本中的单个特征只有1位处于状态1,其他的都是0。别名:哑变量,热独编码

(1) 将分类值映射到整数值。
(2) 然后,每个整数值被表示为二进制向量,除了整数的索引之外,其他都是零值,它被标记为1。

例子:把下图中左边的表格转化为使用右边形式进行表示:

方法

  • pd.qcut(data,q):对数据进行分组,一般与value_counts搭配使用

    • data:需要分组的数据
    • q:分组数量,表示自行将数据分成数量相近的q组
  • pd.cut(data,bins):自定义分组
    • bins:自定义分组区间
  • series.value_counts():统计个数
  • pd.get_dummies(data, prefix=None):获取数据的one-hot编码矩阵
    • prefix:分组名字

案例:对股票每日的涨跌幅(“p_change”)数据进行离散化

# 1. 先读取股票的数据,筛选出p_change数据
data = pd.read_csv('../Python/fodder/stock_day.csv')
data_p = data['p_change']
# 2. 将股票涨跌幅数据进行分组并统计
qcut = pd.qcut(data_p, 10) # 分组 自行分成10组
2018-02-27    (1.738, 2.938]
2018-02-26     (2.938, 5.27]
2018-02-23    (1.738, 2.938]
2018-02-22     (0.94, 1.738]
2018-02-14    (1.738, 2.938]...
qcut.value_counts() # 统计
(-10.030999999999999, -4.836]    65
(-0.462, 0.26]                   65
(0.26, 0.94]                     65
(5.27, 10.03]                    65
(-4.836, -2.444]                 64
(-2.444, -1.352]                 64
(-1.352, -0.462]                 64
(1.738, 2.938]                   64
(2.938, 5.27]                    64
(0.94, 1.738]                    63
# 可以自定义分组区间
bins = [-100, -7, -5, -3, 0, 3, 5, 7, 100]
cut = pd.cut(data_p, bins)
cut.value_counts()
(0, 3]        215
(-3, 0]       188
(3, 5]         57
(-5, -3]       51
(5, 7]         35
(7, 100]       35
(-100, -7]     34
(-7, -5]       28
# 3. 得出one-hot编码矩阵
pd.get_dummies(cut, prefix="rise").head()

one-hot编码矩阵前5行如图所示:

8.3 数据合并

  • pd.concat([data1, data2], axis=1)

    • 按照行或列进行合并,axis=0为列索引(默认),axis=1为行索引

将处理好的one-hot编码矩阵与原数据合并

  • pd.merge(left, right, how=‘inner’, on=None, left_on=None, right_on=None)

    • 可以指定按照两组数据的共同键值对合并或者左右各自
    • left:左表
    • right:右表
    • how:指定合并的方式 ,与数据库表的连接方式原理一样
      • inner:内连接,默认连接方式
      • outer:外连接
      • left:左连接
      • right:右连接
    • on: 指定键
    • left_on=None, right_on=None:指定左右键
left = pd.DataFrame({'key1': ['K0', 'K0', 'K1', 'K2'],'key2': ['K0', 'K1', 'K0', 'K1'],'A': ['A0', 'A1', 'A2', 'A3'],'B': ['B0', 'B1', 'B2', 'B3']})right = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],'key2': ['K0', 'K0', 'K0', 'K0'],'C': ['C0', 'C1', 'C2', 'C3'],'D': ['D0', 'D1', 'D2', 'D3']})# 默认内连接, 指定'key1', 'key2'
pd.merge(left, right, on=['key1', 'key2'])

# 外连接
pd.merge(left, right, how='outer', on=['key1', 'key2'])

# 左连接
pd.merge(left, right, how='left', on=['key1', 'key2'])

# 右连接
pd.merge(left, right, how='right', on=['key1', 'key2'])

8.4 交叉表与透视表

透视表(pivot table)数据汇总分析工具交叉表(crosstab)是一种用于计算分组频率的特殊透视表用于计算一列数据对于另外一列数据的分组频率(寻找两个列之间的关系)
  • pd.crosstab(value1, value2) 交叉表

案例分析:探究星期几跟股票涨跌的关系

1.准备两列数据,星期数据以及涨跌数据

# 先把对应的日期找到星期几
weekday = pd.to_datetime(data.index).weekday
# 增加一列weekday 表示星期几 星期一至星期日 分别为0~6
data['weekday'] = weekday
# 把p_change按照大小去分个类0为界限
up_or_down = np.where(data['p_change'] > 0, 1, 0)
# 增加一列up_or_down,表示涨跌情况 1涨,0跌
data['up_or_down'] = up_or_down

2.通过交叉表找寻两列数据的关系

# 通过交叉表找寻两列数据的关系
result= pd.crosstab(data['weekday'], data['up_or_down'])up_or_down 0   1
weekday
0               63  62
1               55  76
2               61  71
3               63  65
4               59  68

3.此时得到的result只是每天涨跌的次数,并没有得到比例,可以通过先求和,再计算百分比

# 算数运算,先求和
sum = result.sum(axis=1)
# 进行相除操作,得出比例
per = result.div(sum, axis=0)
up_or_down  0   1
weekday
0           0.504000    0.496000
1           0.419847    0.580153
2           0.462121    0.537879
3           0.492188    0.507812
4           0.464567    0.535433

4.画图,查看效果

#  stacked=True 表示堆积显示
pro.plot(kind='bar', stacked=True)

  • DataFrame.pivot_table([], index=[]) 透视表

使用透视表,刚才的过程更加简单,可以直接得到一组数据占另一组数据的百分比

per = data.pivot_table(['up_or_down'], index='weekday')up_or_down
weekday
0       0.496000
1       0.580153
2       0.537879
3       0.507812
4       0.535433

8.5 分组与聚合

分组与聚合通常是分析数据的一种方式,通常与一些统计函数一起使用,查看数据的分组情况

DataFrame.groupby(key, as_index=True)

  • key:分组的列数据,可以多个
  • as_index:是否进行索引,默认True

案例:不同颜色的不同笔的价格数据,对颜色分组,价格进行聚合

col =pd.DataFrame({'color': ['white','red','green','red','green'], 'object': ['pen','pencil','pencil','ashtray','pen'],'price1':[5.56,4.20,1.30,0.56,2.75],'price2':[4.75,4.12,1.60,0.75,3.15]})
# 对颜色分组,price1进行聚合,求均值
col.groupby('color')['price1'].mean()   # 方法1 常用
col['price1'].groupby(col['color']).mean()  # 方法2color
green    2.025
red      2.380
white    5.560

Python库-pandas详解相关推荐

  1. Python库functools详解

    functools模块是Python的标准库的一部分,它是为高阶函数而实现的.高阶函数是作用于或返回另一个函数或多个函数的函数.一般来说,对这个模块而言,任何可调用的对象都可以作为一个函数来处理. f ...

  2. python 之 pandas 详解

    一.导入库 import pandas as pd import numpy as np import matplotlib.pyplot as plt 二.创建对象 1.通过传递一个list对象来创 ...

  3. Python全栈开发-数据分析-03 Pandas详解 (下)

    Pandas详解 (下) 一. Excel文件的拆分与合并 1.1 一个文件夹下多个工作簿的合并[单独Sheet] 思路: 1,把文件夹下面所有的文件都遍历出来 2.循环读取每个文件 (1)第一次读取 ...

  4. Python爬虫之selenium库使用详解

    Python爬虫之selenium库使用详解 本章内容如下: 什么是Selenium selenium基本使用 声明浏览器对象 访问页面 查找元素 多个元素查找 元素交互操作 交互动作 执行JavaS ...

  5. python时间函数详解_Python:Numpy库基础分析——详解datetime类型的处理

    原标题:Python:Numpy库基础分析--详解datetime类型的处理 Python:Numpy库基础分析--详解datetime类型的处理 关于时间的处理,Python中自带的处理时间的模块就 ...

  6. python可以处理多大的数据_科多大数据之Python基础教程之Excel处理库openpyxl详解...

    原标题:科多大数据之Python基础教程之Excel处理库openpyxl详解 科多大数据小课堂来啦~Python基础教程之Excel处理库openpyxl详解 openpyxl是一个第三方库,可以处 ...

  7. python的excell库_扣丁学堂Python基础教程之Excel处理库openpyxl详解

    扣丁学堂Python基础教程之Excel处理库openpyxl详解 2018-05-04 09:49:49 3197浏览 openpyxl是一个第三方库,可以处理xlsx格式的Excel文件.pipi ...

  8. Python标准库time详解

    Python标准库time详解 1.time库 时间戳(timestamp)的方式:通常来说,时间戳表示的是从1970年1月1日00:00:00开始按秒计算的偏移量 结构化时间(struct_time ...

  9. Python BS4解析库用法详解

    Python BS4解析库用法详解 Beautiful Soup 简称 BS4(其中 4 表示版本号)是一个 Python 第三方库,它可以从 HTML 或 XML 文档中快速地提取指定的数据.Bea ...

  10. Python bs4解析库使用详解

    今天继续给大家介绍Python 爬虫相关知识,本文主要内容是Python bs4解析库使用详解. 一.Python bs4库简介与安装 bs4是Python的一个第三方库,主要用于从HTML或者是XM ...

最新文章

  1. 过去一周AI领域有哪些新鲜事?看这一篇就够了
  2. 【转】c++中的sizeof
  3. Ajax同步调用 异步排序
  4. 《炉石传说》架构设计赏析(1):游戏启动流程
  5. HDU - 6625 three arrays (Trie+dfs)
  6. 湖南省计算机二级考试题库,湖南省计算机二级考试题库..doc
  7. TCP之Delay ACK在Linux和Windows上实现的异同-Linux的自适应ACK
  8. 使用MATLAB进行多元非线性回归拟合预测
  9. Golang PDF转图片 拼接长图 压缩PDF及图片 输出JPEG
  10. 第13章 原始套接字
  11. html用九张图片做出九宫图,九宫切图软件 如何快速把照片做成九宫格切图
  12. IT研发人员的四种工作
  13. PS2接口协议及代码分析
  14. Win10添加、删除鼠标右击的选项(快捷方法)
  15. 进程相关概念(一文搞懂)
  16. 以太坊NFT二层网络之Immutable X(IMX)
  17. MPI矩阵向量乘法代码《并行程序设计导论》
  18. spring cloud eureka 样式wro.css wro.js 404
  19. opencv 读取一帧时间及imshow耗时
  20. 交通灯的PLC控制设计

热门文章

  1. 微信小程序地图polygons自己标点,三个点以上连成面
  2. c语言驾校信息管理系统,驾校综合信息管理系统
  3. weka mysql_weka连接mysql数据库
  4. 【配置教程】FDDB生成ROC曲线
  5. nodejs字符串如何转成json数据
  6. 蓝丝雨零基础DNF脚本开发速成系列
  7. U1C3 介绍SketchEngine和Web语料库研究
  8. APP安全测试——HOOK技术
  9. Windows10操作系统搭建C语言开发环境
  10. 蓝牙安全与攻击案例分析