5.1 Pandas介绍

1. 概述

  • 2008年WesMcKinney开发出的库
  • 专门用于数据挖掘的开源python库
  • 以Numpy为基础,借力Numpy模块在计算方面性能高的优势 基于matplotlib,能够简便的画图
  • 独特的数据结构

2.为什么使用Pandas

  • 增加图表可读性,numpy创建ndarray的样式如下:


Pandas创建如下,可读性增加

  • 读取文件方便
  • 便捷的数据处理能力
  • 封装了Matplotlib和Numpy的画图和计算

5.2 Pandas数据结构

Pandas中一共有三种数据结构,分别为:Series、DataFrame和MultiIndex(老版本中叫Panel )。

其中Series是一维数据结构,DataFrame是二维的表格型数据结构,MultiIndex是三维的数据结构。

1. Series

Series是一个类似于一维数组的数据结构,它能够保存任何类型的数据,比如整数、字符串、浮点数等,主要由一组数据和与之相关的索引两部分构成。

  • 1.1 Series的创建
  • pd.Series(data=None, index=None, dtype=None)命令
    参数:
    - data 传入的数据,可以是ndarray、list等
    - index:索引,必须是唯一的,且与数据的长度相等。如果没有传入索引参数,则默认会自动创建一个从0-N的整数索引。
    - dtype:数据的类型
  • 根据已有数据创建
    - 指定内容,默认索引
import pandas as pd
import numpy as np
创建Series一维数组
pd.Series(np.arange(10))
0    0
1    1
2    2
3    3
4    4
5    5
6    6
7    7
8    8
9    9
dtype: int32
 - 指定索引

pd.Series(np.arange(10,20),index=list(range(10)))
0    10
1    11
2    12
3    13
4    14
5    15
6    16
7    17
8    18
9    19
dtype: int32
  • 通过字典创建
## 通过字典创建
count_color=pd.Series({"red":100,"yellow":200,"blue":20,"green":30})
count_color
count_color
red       100
yellow    200
blue       20
green      30
dtype: int64
  • 1.2 Series的属性
    Series的两个属性,index和values
count_color=pd.Series({"red":100,"yellow":200,"blue":20,"green":30})
count_color.index
Index(['red', 'yellow', 'blue', 'green'], dtype='object')

values属性

count_color.values
array([100, 200,  20,  30], dtype=int64)

也可以使用索引来获取数据

2. Data Frame

DataFrame是一个类似于二维数组或表格(如excel)的对象,既有行索引,又有列索引

  • 行索引,表明不同行,横向索引,叫index,0轴,axis=0
  • 列索引,表名不同列,纵向索引,叫columns,1轴,axis=1

2.1 DataFrame的创建

# 导入pandas
import pandas as pdpd.DataFrame(data=None, index=None, columns=None)

参数
- index:行标签。如果没有传入索引参数,则默认会自动创建一个从0-N的整数索引。
- columns: 列标签。如果没有传入索引参数,则默认会自动创建一个从0-N的整数索引。
创建方式

  • 通过已有数据创建

    给分数数据增加行列索引,显示效果更佳

    如何增加行列索引?
# 构造行索引序列
subjects = ["语文", "数学", "英语", "政治", "体育"]# 构造列索引序列
stu = ['同学' + str(i) for i in range(score_df.shape[0])]# 添加行索引
data = pd.DataFrame(score, columns=subjects, index=stu)

注意,此时的运行结果是

这是因为,此时的data是score,不是一个ndarray数组,也不是list,而是一个dataframe

type(score)
pandas.core.frame.DaraFrame

改成,

score_df=np.random.randint(40,100,(10,5))
data2=pd.DataFrame(score_df,stu,subjects)

则结果为

2.2 DataFrame的属性

  • shape
data2.shape
(10, 5)
  • index
data.index# 结果
Index(['同学0', '同学1', '同学2', '同学3', '同学4', '同学5', '同学6', '同学7', '同学8', '同学9'], dtype='object')
  • columns
data.columns# 结果
Index(['语文', '数学', '英语', '政治', '体育'], dtype='object')
  • values
data.valuesarray([[92, 55, 78, 50, 50],[71, 76, 50, 48, 96],[45, 84, 78, 51, 68],[81, 91, 56, 54, 76],[86, 66, 77, 67, 95],[46, 86, 56, 61, 99],[46, 95, 44, 46, 56],[80, 50, 45, 65, 57],[41, 93, 90, 41, 97],[65, 83, 57, 57, 40]])
  • T
data.T

结果

  • head(5): 显示前5行内容。如果不补充参数,默认5行。填入参数N则显示前N行

  • tail(5) 显示后五行

2.3 DataFrame索引的设置

2.3.1 修改行列索引值

  • 必须整行或者整列索引
stu2=["同学_{}".format(i) for i in range(10)]
data2.index=stu2

结果显示

注意以下修改方式是错的

# 错误修改方式
data.index[3] = '学生_3'

2.3.2 重设索引

  • reset_index(drop=False)
    - 设置新的下标索引
    - drop:默认为False,不删除原来索引,如果为True,删除原来的索引值
    - level:重设那一列索引
data3=data2.reset_index(level=0)

结果为

由于此时data3索引只有1行,只能设置level=0,则

2.3.3 以某列值设置为新的索引

  • set_index(keys, drop=True)
    - keys : 列索引名成或者列索引名称的列表
    - drop : boolean, default True.当做新的索引,删除原来的列
    设置新索引案例
  1. 创建
df = pd.DataFrame({'month': [1, 4, 7, 10],'year': [2012, 2014, 2013, 2014],'sale':[55, 40, 84, 31]})

结果显示为:

2. 以月份重新设置新的索引

df.set_index("month")

结果显示为

3. 设置多个索引,以年和月份,注意设置多级索引一定要加中括号

df.set_index("year","month")

结果显示为:

而如果代码为:

df.set_index(["year","month"])

则结果为:

3 MultiIndex与Panel

3.1 MultiIndex

MultiIndex是三维的数据结构;
MultiIndex表示多级索引,它是从Index继承过来的,其中多级标签用元组对象来表示。
多级索引(也称层次化索引)是pandas的重要功能,可以在Series、DataFrame对象上拥有2个以及2个以上的索引。

3.1.1 multiIndex的特性

打印刚才的df的行索引结果

df2=df.set_index(["year","month"])
df2.index

结果是

多级或者分层索引对象

  • index属性

    • names:levels的名称
    • levels: 每个level的元组值

3.1.2 multiIndex的创建

  • 方式一:元组列表
m_index1=pd.Index([("A","x1"),("A","x2"),("B","y1"),("B","y2"),("B","y3")],name=["class1","class2"])
m_index1

代码结果

MultiIndex(levels=[['A', 'B'], ['x1', 'x2', 'y1', 'y2', 'y3']],labels=[[0, 0, 1, 1, 1], [0, 1, 2, 3, 4]],names=['class1', 'class2'])
  • 方式二:特定结构
arrays = [[1, 1, 2, 2], ['red', 'blue', 'red', 'blue']]
pd.MultiIndex.from_arrays(arrays, names=('number', 'color'))

运行结果

3.2 Panel

3.2.1 panel的创建(已淘汰,了解即可)

4 小结

  • pandas的优势【了解】
    - 增强图表可读性
    - 便捷的数据处理能力
    - 读取文件方便
    - 封装了Matplotlib、Numpy的画图和计算
  • series【知道】
    - 创建
    - pd.Series([], index=[])
    - pd.Series({})
    - 属性
    - 对象.index
    - 对象.values
  • DataFrame【掌握】
    - 创建
    pd.DataFrame(data=None, index=None, columns=None)
    - 属性
    shape – 形状
    index – 行索引
    columns – 列索引
    values – 查看值
    T – 转置
    head() – 查看头部内容
    tail() – 查看尾部内容
    - DataFrame索引
    修改的时候,需要进行全局修改
    对象.reset_index()
    对象.set_index(keys)
  • MultiIndex与Panel【了解】
    - multiIndex:
    类似ndarray中的三维数组
    创建:
    pd.MultiIndex.from_arrays()
    属性:
    对象.index
    panel:
    - pd.Panel(data, items, major_axis, minor_axis)
    - panel数据要是想看到,则需要进行索引到dataframe或者series才可以

5.3 基本数据操作

为了更好的理解这些基本操作,我们将读取一个真实的股票数据。

# 读取文件
data = pd.read_csv("./code/data/stock_day.csv")
# 删除一些列,让数据更简单些,再去做后面的操作
data = data.drop(["ma5","ma10","ma20","v_ma5","v_ma10","v_ma20"], axis=1)

数据读取如下:

1 索引操作

Numpy当中我们已经讲过使用索引选取序列和切片选择,pandas也支持类似的操作,也可以直接使用列名、行名称,甚至组合使用。

1.1 直接使用行列索引(先列后行)

获取’2018-02-27’这天的’close’的结果

# 直接使用行列索引名字的方式(先列后行)
data['open']['2018-02-27']
23.53
# 不支持的操作
# 错误
data['2018-02-27']['open']
# 错误
data[:1, :2]

1.2 结合loc或者iloc使用索引

获取从’2018-02-27’:‘2018-02-22’,'open’的结果,注意此时是先行后列,混合索引的话loc[data.index[索引下标]], iloc[data.columns.get_indexer[索引名称]]

# 使用loc:只能指定行列索引的名字,注意中括号,字符串加双引号
data.loc['2018-02-27':'2018-02-22', 'open']
#运行结果
2018-02-27    23.53
2018-02-26    22.80
2018-02-23    22.88
2018-02-22    22.25
Name: open, dtype: float64# 使用iloc可以通过索引的下标去获取
# 获取前3天数据,前5列的结果
data.iloc[:3, :5]#运行结果open    high    close    low
2018-02-27    23.53    25.88    24.16    23.53
2018-02-26    22.80    23.78    23.53    22.80
2018-02-23    22.88    23.37    22.82    22.71

1.3 使用ix组合索引 (混合索引)(已取消)

获取行第1天到第4天,[‘open’, ‘close’, ‘high’, ‘low’]这个四个指标的结果

# 使用ix进行下表和名称组合做引
data.ix[0:4, ['open', 'close', 'high', 'low']]# 推荐使用loc和iloc来获取的方式
data.loc[data.index[0:4], ['open', 'close', 'high', 'low']]
data.iloc[0:4, data.columns.get_indexer(['open', 'close', 'high', 'low'])]
# 运行结果open    close    high    low
2018-02-27    23.53    24.16    25.88    23.53
2018-02-26    22.80    23.53    23.78    22.80
2018-02-23    22.88    22.82    23.37    22.71
2018-02-22    22.25    22.28    22.76    22.02

2 赋值操作

对DataFrame当中的close列进行重新赋值为1

# 直接修改原来的值
data['close'] = 1
# 或者
data.close = 1

3 排序

排序有两种形式,一种对于索引进行排序,一种对于内容进行排序

3.1 DataFrame排序

使用df.sort_values(by=, ascending=)
-单个键或者多个键进行排序
- 参数
- by: 指定排序参考的键
- ascending:默认升序
-ascending=False:降序

# 按照开盘价大小进行排序 , 使用ascending指定按照大小排序

运行结果

#按照多个建进行排序
data.sort_values(by=['open', 'high'])


-使用df.sort_index给索引排序
这个股票的日期索引原来是从大到小,现在重新排序,从小到大

data.sort_index()

3.2 Series排序

  • 使用series.sort_values(ascending=True)进行排序
    series排序时,只有一列,不需要参数
data['p_change'].sort_values(ascending=True).head()2015-09-01   -10.03
2015-09-14   -10.02
2016-01-11   -10.02
2015-07-15   -10.02
2015-08-26   -10.01
Name: p_change, dtype: float64

使用series.sort_index()进行排序
与df一致

# 对索引进行排序
data['p_change'].sort_index().head()2015-03-02    2.62
2015-03-03    1.44
2015-03-04    1.57
2015-03-05    2.02
2015-03-06    8.51
Name: p_change, dtype: float64

4.小结

  • 1.索引【掌握】
    直接索引 – 先列后行,是需要通过索引的字符串进行获取
    loc – 先行后列,是需要通过索引的字符串进行获取,可以和loc[data.index[]]结合
    iloc – 先行后列,是通过下标进行索引,可以和loc[data.columns.get_indexer[]结合]
    ix – 先行后列, 可以用上面两种方法混合进行索引
  • 2.赋值【知道】
    data[""] = **
    data. =
    3.排序【知道】
    dataframe
    对象.sort_values()
    对象.sort_index()
    series
    对象.sort_values()
    对象.sort_index()

5.4 DataFrame运算

1. 算术运算

  • dataframe.add(other)
data["open"].add(1)
#运行结果
2018-02-27    24.53
2018-02-26    23.80
2018-02-23    23.88
2018-02-22    23.25
2018-02-14    22.49
  • dataframe.sub(1)

2 逻辑运算

2.1 逻辑运算符号

  • 例如筛选data[“open”]>23的日期数据
data["open"] > 23
2018-02-27     True
2018-02-26    False
2018-02-23    False
2018-02-22    False
2018-02-14    False
# 逻辑判断的结果可以作为筛选的依据
data[data["open"] > 23].head()

运行结果如下图:

  • 完成多个逻辑判断(记得加小括号)
data[(data["open"]>23)&(data["open"]<24)].head()

运行结果

2.3 逻辑运算函数

  • data.query(expr)

    • expr:查询字符串
      通过query使刚才过程更方便
data.query("open<24&open>23").head()

运行结果

  • data.isin(values)
# 可以指定值进行一个判断,从而进行筛选操作
data[data["open"].isin([23.53, 23.85])]

3 统计运算

3.1 describe

综合分析: 能够直接得出很多统计结果,count, mean, std, min, max 等

# 计算平均值、标准差、最大值、最小值
data.describe()

结果:

3.2 统计函数

Numpy当中已经详细介绍,在这里我们演示min(最小值), max(最大值), mean(平均值), median(中位数), var(方差), std(标准差),mode(众数)结果:
对于单个函数去进行统计的时候,坐标轴还是按照默认列“columns” (axis=0, default),如果要对行“index” 需要指定(axis=1)

  • max(),min()
data.max()

  • std()、var()

    data.std(0)

3.3 累计统计函数


累计统计函数怎么用?

  • cumsum
    以上这些函数可以对series和dataframe操作

这里我们按照时间的从前往后来进行累计

  • 排序
# 排序之后,进行累计求和
data = data.sort_index()
  • 对p_change进行求和
#对p_change进行求和
stock_rise=data["p_change"]
stock_rise.cumsun()

运行结果如下图:

如何让连续求和结果更好的展现?

import matplotlib.pyplot as plt
# plot显示图形
plt.plot(stock_rise.cumsum())
# 需要调用show,才能显示出结果
plt.show()

结果显示

4 自定义运算

  • apply(func,axis=0)
    - func:自定义函数
    - axis=0: 默认是列,axis=1为行进行运算
  • 定义一个对列,最大值-最小值的函数‘
    注意1.索引方式2.函数如何定义的呢
data[['open', 'close']].apply(lambda x: x.max() - x.min(), axis=0)
open     22.74
close    22.85
dtype: float64

5. 小结

  • 算术运算【知道】
  • 逻辑运算【知道】
    • 1.逻辑运算符号
    • 2.逻辑运算函数
  • 对象.query()
  • 对象.isin()
  • 统计运算【知道】
    • 1.对象.describe()
    • 2.统计函数
    • 3.累积统计函数
  • 自定义运算【知道】
    • apply(func, axis=0)

5.5 Pandas 画图

1 panda.DataFrame.plot

  • 命令行:
DataFrame.plot(kind="line")
  • 参数:
    kind:str,需要绘制的图形种类
    -‘line’ : line plot (default)
    -‘bar’ : vertical bar plot
    -‘barh’ : horizontal bar plot
    -‘hist’ : histogram

    • ‘pie’ : pie plot
    • ‘scatter’ : scatter plot
      更多细节:https://pandas.pydata.org/pandas-docs/stable/generated/pandas.DataFrame.plot.html?highlight=plot#pandas.DataFrame.plot
  1. panda.Series.plot

更多细节:https://pandas.pydata.org/pandas-docs/stable/generated/pandas.Series.plot.html?highlight=plot#pandas.Series.plot

5.6 文件的读取与存储

我们的数据大部分存在于文件当中,所以pandas会支持复杂的IO操作,pandas的API支持众多的文件格式,如CSV、SQL、XLS、JSON、HDF5。
注: 最常用的HDF5和CSV文件

1 CSV

1.1 read_csv

  • pandas.read_csv((filepath_or_buffer, sep =’,’, usecols)

    • filepath_or_buffer:文件路径
    • sep :分隔符,默认用","隔开
    • usecols:指定读取的列名,列表形式
  • 举例:读取之前的股票数据
# 读取文件,并且指定只获取'open', 'close'指标
data = pd.read_csv("./data/stock_day.csv", usecols=['open', 'close'])

运行结果如下:

1.2 to_csv

  • DataFrame.to_csv(path_or_buf=None, sep=’, ’, columns=None, header=True, index=True, mode=‘w’, encoding=None)

    • path_or_buf :文件路径
    • sep :分隔符,默认用","隔开
    • columns :选择需要的列索引
    • header :boolean or list of string, default True,是否写进列索引值
    • index:是否写进行索引
    • mode:‘w’:重写, ‘a’ 追加
  • ** 举例:mode:‘w’:重写, ‘a’ 追加**
    保存’open’列的数据,然后读取查看结果(columns参数是表示选择原数据的哪一列保存到数据当中,而header和index是是否要保留原来的列行索引;只有一个的索引data[:10]是行索引,有 两个时则先列后行)
data[:10].to_csv("./code/data/test.csv", columns=['open'])

运行结果:

检验索引:

data[:10]

运行结果:

两个索引:

data[:10][:1]

索引结果:

会发现将索引存入到文件当中,变成单独的一列数据。如果需要删除,可以指定index参数,删除原来的文件,重新保存一次。

data[:10].to_csv("./code/data/test2.csv",columns=['open'], index=False)

运行结果:

2 HDF5

2.1 read_hdf与to_hdf

HDF5文件的读取和存储需要指定一个键,值为要存储的DataFrame

  • pandas.read_hdf(path_or_buf,key =None,** kwargs)
    当从h5文件中读取数据的时候

    • path_or_buffer:文件路径
    • key:读取的键
    • return选择的对象
  • 存储命令DataFrame.to_path_or_buffer:文件路径

2.2 案例

  • 读取文件
day_close=pd.read_hdf()

如果无法读取文件,可能需要pip install tables

pip install tables


如果出现以下问题:

原因:编码格式错误
无论是txt文件还是csv文件出现这样的问题,解决方法是一样的:
右击文件-以记事本的方式打开-另存为-注意窗口的下方–选择UTF-8 编码格式-保存。

涉及转化编码可能需要用库chardet

  • 存储文件
day_close.to_hdf("./data/test.h5", key="day_close")
  • 再次读取(不读取打不开h5)
    new_close = pd.read_hdf("./data/test.h5", key=“day_close”)

注意:优先选择使用HDF5文件存储

HDF5在存储的时候支持压缩,使用的方式是blosc,这个是速度最快的也是pandas默认支持的
使用压缩可以提磁盘利用率,节省空间
HDF5还是跨平台的,可以轻松迁移到hadoop 上面

3 JSON

JSON是我们常用的一种数据交换格式,前面在前后端的交互经常用到,也会在存储的时候选择这种格式。所以我们需要知道Pandas如何进行读取和存储JSON格式。

3.1 read_json

pandas.read_json(path_or_buf=None, orient=None, typ=‘frame’, lines=False)

3.2 read_josn案例

  • 数据介绍
    这里使用一个新闻标题讽刺数据集,格式为json。is_sarcastic:1讽刺的,否则为0;headline:新闻报道的标题;article_link:链接到原始新闻文章。存储格式为:
{"article_link": "https://www.huffingtonpost.com/entry/versace-black-code_us_5861fbefe4b0de3a08f600d5", "headline": "former versace store clerk sues over secret 'black code' for minority shoppers", "is_sarcastic": 0}
{"article_link": "https://www.huffingtonpost.com/entry/roseanne-revival-review_us_5ab3a497e4b054d118e04365", "headline": "the 'roseanne' revival catches up to our thorny political mood, for better and worse", "is_sarcastic": 0}
  • 读取
    orient指定存储的json格式,lines指定按照行去变成一个样本
json_read=pd.read_json("./code/data/Sarcasm_Headlines_Dataset.json",orient="records", lines=True)

运行结果为:

3.3 to_json

  • DataFrame.to_json(path_or_buf=None, orient=None, lines=False)

    • 将Pandas 对象存储为json格式
    • path_or_buf=None:文件地址
    • orient:存储的json形式,{‘split’,’records’,’index’,’columns’,’values’}
    • lines:一个对象存储为一行

3.4 案例

  • 存储文件
json_read.to_json("./jsontest.json",orient="records",lines=True)

如果不修改lines参数,则结果为

[{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/versace-black-code_us_5861fbefe4b0de3a08f600d5","headline":"former versace store clerk sues over secret 'black code' for minority shoppers","is_sarcastic":0},{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/roseanne-revival-review_us_5ab3a497e4b054d118e04365","headline":"the 'roseanne' revival catches up to our thorny political mood, for better and worse","is_sarcastic":0},{"article_link":"https:\/\/local.theonion.com\/mom-starting-to-fear-son-s-web-series-closest-thing-she-1819576697","headline":"mom starting to fear son's web series closest thing she will have to grandchild","is_sarcastic":1},{"article_link":"https:\/\/politics.theonion.com\/boehner-just-wants-wife-to-listen-not-come-up-with-alt-1819574302","headline":"boehner just wants wife to listen, not come up with alternative debt-reduction ideas","is_sarcastic":1},{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/jk-rowling-wishes-snape-happy-birthday_us_569117c4e4b0cad15e64fdcb","headline":"j.k. rowling wishes snape happy birthday in the most magical way","is_sarcastic":0},{"article_link":"https:\/\/www.huffingtonpost.com\/entry\/advancing-the-worlds-women_b_6810038.html","headline":"advancing the world's women","is_sarcastic":0},....]

当前结果为:

4 小结

  • pandas的CSV、HDF5、JSON文件的读取【知道】

    • 对象.read_**()
    • 对象.to_**()

5.7 高级处理-缺失值

1. 判断是否有缺失值数据

np.any(pd.isnull(df))组合判断是否有缺失值,有就需要处理
np.all(pd. notnull(df))组合判断缺失值是否全部处理完

2. 处理缺失值

  • 删除存在的缺失值:dropna(axis=“rows”),此时axis=1删除的是行
  • 替换缺失值:fillna(value,inplace=True)
  • 缺失值没有NaN标记,用别的符号比如“?”也可以先替换为np,nan

3. 电影数据的缺失值处理

    1. 删除
      pandas删除缺失值,使用dropna的前提是,缺失值的类型必须是np.nan
# 不修改原数据
movie.dropna()# 可以定义新的变量接受或者用原来的变量名
data = movie.dropna()
    1. 替换缺失值
for i in movie.columns:if np.all(pd.notnull(movie[i])) == False:print(i)movie[i].fillnal(movie[i].mean(),inplace=True)
    1. 不是缺失值nan,有默认标记的数据
wis = pd.read_csv("https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data")

数据读取如果出现错误,可以全局取消证书验证

# 全局取消证书验证
import ssl
ssl._create_default_https_context = ssl._create_unverified_context

处理思路

  1. 先替换‘?’为np.nan,原数列并没有改变
  • df.replace(to_replace=, value=)
    to_replace:替换前的值
    value:替换后的值
wis=wis.replace(to_replace='?', value=np.nan)
  1. 缺失值处理,df.dropna()或者df.fillna()

3 小结

  • pd.isnull、pd.notnull判断缺失值是否存在

    • np.any(pd.isnull(movie) # 里面如果有一个缺失值,就返回True
    • np.all(pd.notnull(movie)) # 里面如果有一个缺失值,就返回False
  • dropna删除np.nan标记的缺失值
  • fillna填充缺失值
    • movie[i].fillna(value=movie[i].mean(), inplace=True)
  • replace替换具体某些值
    • wis.replace(to_replace="?", value=np.NaN)

5.8 高级处理-数据离散化

1 为什么要离散化

连续属性离散化的目的是为了简化数据结构,数据离散化技术可以用来减少给定连续属性值的个数。离散化方法经常作为数据挖掘的工具。

2 什么是数据的离散化

连续属性的离散化就是在连续属性的值域上,将值域划分为若干个离散的区间,最后用不同的符号或整数 值代表落在每个子区间中的属性值。

3 股票涨跌幅离散化

3.1 读取股票的数据

data = pd.read_csv("./data/stock_day.csv")
p_change= data['p_change']

3.2 将股票涨跌幅进行分组

  • pd.qcut(data, q):自行分组,q表示分成大致等份的几组
    对数据进行分组,将数据分组,一般会与value_counts搭配使用,统计每组的个数
  • series.value_counts():统计分组次数
  • 自定义区间分组
  • pd.cut(data,bins), 指定分组区间
# 自己指定分组区间
bins = [-100, -7, -5, -3, 0, 3, 5, 7, 100]
p_counts = pd.cut(p_change, bins)

3.3 股票涨跌幅分组数据变成one-hot编码

  • 什么是one-hot编码
    把每个类别生成一个布尔列,这些列中只有一列可以为这个样本取值为1.其又被称为热编码。
    pandas.get_dummies(data, prefix=None) dummy是哑变量的意思
  • data:array-like, Series, or DataFrame
  • prefix:分组名字
# 得出one-hot编码矩阵
dummies = pd.get_dummies(p_counts, prefix="rise")

得到结果:

4 小结

  • 数据离散化【知道】

    • 可以用来减少给定连续属性值的个数
    • 在连续属性的值域上,将值域划分为若干个离散的区间,最后用不同的符号或整数值代表落在每个子区间中的属性值。
  • qcut、cut实现数据分组【知道】
    qcut:大致分为相同的几组
    cut:自定义分组区间
    get_dummies实现哑变量矩阵【知道】

5.9 高级处理-数据合并

1 pd.concat实现数据合并

pd.concat([data1, data2], axis=1)
按照行或列进行合并,axis=0为列索引,axis=1为行索引
比如我们将刚才处理好的one-hot编码与原数据合并:

2 pd.merge

  • pd.merge(left,right,how=‘inner’, on=None)
    可以指定按照两组数据的共同键值对合并或者左右各自
    left: DataFrame
    right: 另一个DataFrame
    on: 指定的共同键
    how:按照什么方式连接

2.1 案例

left = pd.DataFrame({'key1': ['K0', 'K0', 'K1', 'K2'],'key2': ['K0', 'K1', 'K0', 'K1'],'A': ['A0', 'A1', 'A2', 'A3'],'B': ['B0', 'B1', 'B2', 'B3']})right = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],'key2': ['K0', 'K0', 'K0', 'K0'],'C': ['C0', 'C1', 'C2', 'C3'],'D': ['D0', 'D1', 'D2', 'D3']})
# 默认内连接
result = pd.merge(left, right, on=['key1', 'key2'])


左连接

右连接

外连接

3 总结

  • pd.concat([数据1, 数据2], axis=**)【知道】
  • pd.merge(left, right, how=, on=)【知道】
  • how – 以何种方式连接
  • on – 连接的键的依据是哪几个

5.10 高级处理-交叉表与透视表

1. 交叉表与透视表作用

探究股票的涨跌与星期几有关?

以下图当中表示,week代表星期几,1,0代表这一天股票的涨跌幅是好还是坏,里面的数据代表比例

可以理解为所有时间为星期一等等的数据当中涨跌幅好坏的比例

  • 交叉表:交叉表用于计算一列数据对于另外一列数据的分组个数(用于统计分组频率的特殊透视表)

    • pd.crosstab(value1, value2)
  • 透视表:透视表是将原有的DataFrame的列分别作为行索引和列索引,然后对指定的列应用聚集函数

2 案例分析

2.1 数据准备

# 寻找星期几跟股票张得的关系
# 1、先把对应的日期找到星期几
date = pd.to_datetime(data.index).weekday
data['week'] = date# 2、假如把p_change按照大小去分个类0为界限
data['posi_neg'] = np.where(data['p_change'] > 0, 1, 0)# 通过交叉表找寻两列数据的关系
count = pd.crosstab(data['week'], data['posi_neg'])# 算数运算,先求和
sum = count.sum(axis=1).astype(np.float32)# 进行相除操作,得出比例
pro = count.div(sum, axis=0)

2.2 查看效果

pd.plot默认x是行索引,y是列

pro.plot(kind='bar', stacked=True)
plt.show()

2.3 使用pivot_table(透视表)实现

# 通过透视表,将整个过程变成更简单一些
data.pivot_table(['posi_neg'], index='week')

3 小结

交叉表与透视表的作用【知道】
交叉表:计算一列数据对于另外一列数据的分组个数
透视表:指定某一列对另一列的关系

5.11 高级处理—分组与聚合

分组与聚合通常是分析数据的一种方式,通常与一些统计函数一起使用,查看数据的分组情况

1. 什么是分组与聚合

  • API
    - DataFrame.groupby(key, as_index=False)
    - key:分组的列数据,可以多个
  • 案例:不同颜色的不同笔的价格数据
col =pd.DataFrame({'color': ['white','red','green','red','green'], 'object': ['pen','pencil','pencil','ashtray','pen'],'price1':[5.56,4.20,1.30,0.56,2.75],'price2':[4.75,4.12,1.60,0.75,3.15]})color    object    price1    price2
0    white    pen    5.56    4.75
1    red    pencil    4.20    4.12
2    green    pencil    1.30    1.60
3    red    ashtray    0.56    0.75
4    green    pen    2.75    3.15

-对颜色分组,price进行聚合

# 分组,求平均值
col.groupby(['color'])['price1'].mean()
col['price1'].groupby(col['color']).mean()color
green    2.025
red      2.380
white    5.560
Name: price1, dtype: float64# 分组,数据的结构不变
col.groupby(['color'], as_index=False)['price1'].mean()color    price1
0    green    2.025
1    red    2.380
2    white    5.560

3 星巴克零售店铺数据

3.1 数据获取

# 导入星巴克店的数据
starbucks = pd.read_csv("./data/starbucks/directory.csv")

3.2 分组聚合

# 按照国家分组,求出每个国家的星巴克零售店数量
count = starbucks.groupby(['Country']).count()

画图显示结果

count['Brand'].plot(kind='bar', figsize=(20, 8))
plt.show()

如果加入省市一起分组

# 设置多个索引,set_index()
starbucks.groupby(['Country', 'State/Province']).count()

小结

groupby进行数据的分组【知道】
pandas中,抛开聚合谈分组,无意义

5.12 案例

1 需求

现在我们有一组从2006年到2016年1000部最流行的电影数据
数据来源:https://www.kaggle.com/damianpanek/sunday-eda/data

问题1:我们想知道这些电影数据中评分的平均分,导演的人数等信息,我们应该怎么获取?
问题2:对于这一组电影数据,如果我们想rating,runtime的分布情况,应该如何呈现数据?
问题3:对于这一组电影数据,如果我们希望统计电影分类(genre)的情况,应该如何处理数据?

2 实现

path="F:\PythonProjects\pythonML\pandas\code\data\IMDB-Movie-Data.csv"
df=pd.read_csv(path)# 2.1 得出评分平均分
print(df["Rating"].mean())
# 2.2 得出导演人数
print("导演人数是:",np.unique(df["Director"]).shape[0])# 2.3 呈现Rating,Runtime (Minutes)的分布情况
df["Rating"].plot(kind="bar",figsize=(20,8))# 2.4 如果我们希望统计电影分类(genre)的情况,应该如何处理数据?
'''思路分析1. 创建一个表格,列索引是去重过的电影类别,temp_df2. 遍历每一个电影,把temp_df中出现的分类设置为13. 求和'''
# 2.4.1 创建一个全为0的dataframe,列索引置为电影的分类,temp_df
# 进行字符串分割
temp_list=[i.split(",") for i in df["Genre"]]
# 获取电影的分类
genere_list=np.unique([i for j in temp_list for i in j])
# 建立一个以genera_list为列索引、原dataframen行索引、元素全为O的列表
temp_df=pd.DataFrame(np.zeros([df.shape[0],genere_list.shape[0]]),index=df.index,columns=genere_list)# 2.4.2 遍历每一部电影,temp_df中把分类出现的列的值置为1
for i in range(temp_df.shape[0]):temp_df.loc[i][temp_list[i]]=1print(temp_df.sum().sort_values())
# 2.4.3 求和、绘图
temp_df.sum().sort_values(ascending=False).plot(kind="bar",figsize=(20,8),fontsize=20)
plt.show()

最后结果:

F:\PythonProjects\pythonML\venv\Scripts\python.exe F:/PythonProjects/pythonML/learnpandas/movietest.py
6.723199999999999
导演人数是: 644
Musical        5.0
Western        7.0
War           13.0
Music         16.0
Sport         18.0
History       29.0
Animation     49.0
Family        51.0
Biography     81.0
Fantasy      101.0
Mystery      106.0
Horror       119.0
Sci-Fi       120.0
Romance      141.0
Crime        150.0
Thriller     195.0
Adventure    259.0
Comedy       279.0
Action       303.0
Drama        513.0
dtype: float64Process finished with exit code 0

5 Pandas数据库相关推荐

  1. pythonpandas数据库_python中使用pandas数据库

    python中使用pandas数据库 利用pandas进行数据分析,以及试用一下jupyter notebook import pandas as pd from pandas import Data ...

  2. python pandas 数据库_Python中pandas函数操作数据库

    一:创建链接数据库引擎 Python from sqlalchemy import create_engine engine= create_engine('postgresql://user@58. ...

  3. 02- pandas 数据库 (数据库)

    pandas 数据库重点: pandas 的主要数据结构: Series (一维数据)与 DataFrame (二维数据). pd.DataFrame(data = np.random.randint ...

  4. Pandas之数据标准化

    Python数据分析博文汇总 Pandas重复值处理函数drop_duplicates() Pandas数据库缺失值处理函数dropna Pandas中slice函数字段抽取 python数据分析-D ...

  5. 用Pandas 处理大数据的3种超级方法

    原文链接:3 simple ways to handle large data with Pandas 作者 | George Seif 译者 | jojoa 易上手, 文档丰富的Pandas 已经成 ...

  6. Pandas之数据框运算

    Python数据分析博文汇总 Pandas重复值处理函数drop_duplicates() Pandas数据库缺失值处理函数dropna Pandas中slice函数字段抽取 python数据分析-D ...

  7. 基于Pytorch的从零开始的目标检测 | 附源码

    01. 引言 目标检测是计算机视觉中一个非常流行的任务,在这个任务中,给定一个图像,你预测图像中物体的包围盒(通常是矩形的) ,并且识别物体的类型.在这个图像中可能有多个对象,而且现在有各种先进的技术 ...

  8. 30分钟 Keras 创建一个图像分类器

    深度学习是使用人工神经网络进行机器学习的一个子集,目前已经被证明在图像分类方面非常强大.尽管这些算法的内部工作在数学上是严格的,但 Python 库(比如 keras)使这些问题对我们所有人都可以接近 ...

  9. python中split函数源代码_Pandas.split()函数用法及源码

    Pandas.split()函数用法及源码 发布时间:2018-05-08 10:44, 浏览次数:1092 , 标签: Pandas split Python数据分析博文汇总 * Pandas重复值 ...

最新文章

  1. 计算机基础知识易错,事业单位考试计算机基础知识易错试题.doc
  2. Webpack中的sourcemap
  3. publishing failed with multiple errors resource is out of sync with the file system--转
  4. ACF:让控制台程序变得更为简单
  5. oracle rac维护命令,2015年oracle rac日常基本维护命令.doc
  6. python变量类型是动态的_【Python】python动态类型
  7. day001-html知识点总结(二)不常见但很重要的元素汇总
  8. Pyton学习—字符串
  9. 易到追债贾跃亭 乐视回应:对方无耻甩锅
  10. React-Native学习指南 1
  11. 相机标定—了解相机模型
  12. 寒假作业1 打印沙漏
  13. 2012-11-25 3 00 发喜讯,终于把S5pv210 VGA 分辨率提升到1440 x 900/1920 x 1
  14. 如何把平板(pad)作为笔记本电脑的分屏详细教程
  15. 什么叫服务器加密狗信息异常,加密狗不能识别,只是服务器能用,客户端提示到期,是什么原因,已经换了口,也重启过电脑了。...
  16. 移动营业厅办业务发现的几个需改问题(转
  17. CSS div斜线倾斜45度
  18. CF1132D Stressful Training (binary search)(greedy)
  19. 侍魂哪个服务器人最多,经典街机游戏《侍魂》里帅气的人物,你最喜欢哪个?...
  20. 三个真话一个假话c语言,推理题-逻辑推理题有A、B、C三个精灵,其中一个只说真话,另外一个只说假 爱问知识人...

热门文章

  1. 【软考备战·希赛网每日一练】2023年4月13日
  2. 【OS笔记 20】经典同步问题——理发师睡觉问题(信号量解决方案)
  3. 数据挖掘——文本挖掘-关键字提取
  4. sd和sem啥区别_SD与SEM区别
  5. 会写Python代码的人工智能Kite宣布支持Linux,“程序猿”要失业了?
  6. “管家婆”软件用于维修管理
  7. 【2022-08-27】美团秋招笔试前四道编程题
  8. C++小木棍题解代码(备用)
  9. 洛谷P3758 [TJOI2017]可乐
  10. 打车日记 - 光头师傅