ClickHouse:存储A股数据实践
ClickHouse存储A股数据实践
Quant最爱
用Python的交易员
等
作者:量化投资与机器学习公众号独家撰写
量化回测,苦于MySQL久矣,特别是进行股票日内因子构建分析或全市场因子测试的时候,每当按下回车时,MySQL就跟丢了魂一样,查询费时,大吞吐量读取也非常耗时。虽然MySQL的优化技巧足够写一本书,但这些都需要交给专业的DB工程师去做,量化打工人没有能力更没有时间倒腾这些。那有没有省时省力,高效存储股票行情数据的解决办法呢。带着这个问题,编辑部简单的搜索了一下,总体分为几个方案:
1、用二进制文件分日期分股票存储,比如HDF5。
2、使用SQL Server等支持分区表的事务型数据库。
3、使用hive这样的离线数据仓库。
4、用Greenplum等开源或商业MPP数据仓库。
5、InfluxDB, Kdb+和Clickhouse等开源或商用的专业时序数据库。
以上大部分技术总体看来就是三个选择:
1、存文件:最傻瓜的就是存csv文件,但需要手撸一个文件管理系统,后续维护也麻烦。
2、常用数据库:MySQL或Mongo,这也是大家日常在用的,好不好用心里都清楚。
3、专业时序数据库:商业的KDB,鼎鼎大名,但一个字:贵。开源的InfluxDB,Clikhouse(惊喜连连)。
为什么选择Clickhouse?
为什么Clickhouse适合且特别适合量化研究回测的场景,回答这个题,我们可以先了解几个小编之前也不了解的概念。
OLAP VS OLTP
OLAP是联机分析处理的简称,通俗的讲,OLAP的场景侧重对大量的数据进行多维度的分析。数据批量导入后,分析师需要对数据进行反复分析,持续测试。数据读取的次数要远多于写入次数。OLTP是联机事务处理的简称,通常是针对某一项小事务对数据进行不断的增删改查,比如在线购物、交易就是典型的OLTP场景。
很明显,量化研究回测就是一个典型的OLAP场景,首先我们需要快速的导入大量的历史数据,然后我们需要对大量的历史数据进行读取分析。Clickhouse等专业的时序数据库就是为了满足OLAP的场景。而传统的关系型数据库主要面向OLTP的场景。
行式存储VS列式存储
与传统关系型数据库的行式存储不同的是,Clickhouse采用列式存储,相比于行式存储,列式存储在分析场景下有着许多优良的特性。
分析场景中往往需要读大量行但是少数几个列。在行存模式下,数据按行连续存储,不参与计算的列在IO时也要全部读出,读取时间严重超时。而列存模式下,只需要读取参与计算的列即可,极大加速了查询。同一列中的数据属于同一类型,节省了大量的存储空间,降低了存储成本,从磁盘中读取相应数据耗时更短。
所以列式存储相对于行式存储的优点总结起来:查得快,读的快。
用Clickhouse存储A股行情数据
安装
参考官方文档,不支持Windows,如在CentOS的安装(小编的服务器是CentOS7.0),只需在命令行执行以下代码:
sudo yum install yum-utils
sudo rpm --import https://repo.clickhouse.tech/CLICKHOUSE-KEY.GPG
sudo yum-config-manager --add-repo https://repo.clickhouse.tech/rpm/clickhouse.repo
sudo yum install clickhouse-server clickhouse-client
sudo systemctl start clickhouse-sever
操作
安装完之后,clickhouse会默认创建用户名为default,且密码为空的用户。对于clickhouse的操作可以通过以下几种方式:
1、clickhouse-client客户端
在命令行输入clickhouse-client,默认使用default账户连接localhost服务器
2、mysql客户端
也可以通过mysql的客户端连接clickhouse数据库,在命令行执行以下代码:
mysql --protocol tcp -u default -P 9004
3、GUI的客户端:DBeaver, Pycharm专业版也可以连接Clickhouse(推荐):
导入数据
股票日度行情数据存ClickHouse表设计
只存储股票上市期间的价格数据(大于等于上市日期,小于退市日期)
上市期间每个交易日都存,如果没交易,则价格成交量及成交金额等都存为-1(-1代表空值)。
价格数据都会乘以100装换为整型,复权因子乘以1000000转换为整型,如果直接存为float会出现小数位数变化的问题,比如1258.021545 会变成1258.0215453 。而如果使用Decimal控制精度,在使用pandahouse读取数据时需要修改源码。
*空值会影响效率,所以存储时把空值转换为-1
在整理行情数据的时候也遇到了很多意想不到的情况,比如暂停上市的股票每周五还出现有成交的行情数据。有些退市的股票不一定会有ST的状态,比如暴风影音直接从正常交易转为待退市股票,并没有ST。量化第一步数据清洗,虽然耗时,但也是对自己负责。
建库
可以直接在clickhouse-client执行以下语句,创建stock_data数据库:
CREATE DATABASE stock_data
建表
建库完了就是建表,只有数据表见好了才能往表里导入数据:
CREATE TABLE stock_data.stock_daily_price
( `trade_date` Date,`sec_code` UInt32,`open` Int32,`high` Int32,`low` Int32,`close` Int32,`volume` Int64,`amount` Int64,`adjfactor` Int32,`st_status` Int16,`trade_status` Int16
) ENGINE = ReplacingMergeTree()
ORDER BY (intHash32(sec_code), trade_date)
说明:
默认都是非空,如果允许空,则使用Nullable(Int32)的字段类型声明。
注意:amount和volume设置为Int64,防止数据超范围。
ENGINE是表引擎,默认使用MergeTree,这里使用ReplacingMergeTree是为了防止重复值。
ORDER BY表示对某几列数据进行排序,比如这里对股票代码和日期进行排序,ORDER BY的列也会被设置为索引。
导入数据
我们使用python读取csv并进行数据清洗后,在存入clickhouse中,所以需要用python连接clickhouse,有以下两种方法:
clickhouse-driver:主要用于操作数据库,而不是读写数据。如果用于读取数据,获取的数据还需要进行类型的转换,不如直接用pandahouse来的便捷。
pandahouse:类似pandas的to_sql和read_sql,可以将clickhouse的数据直接读取为Dataframe
数据类型为Decimal时,pandahouse会出现异常报错,原因是由于pandahouse里面没有对Decimal的数据类型作相应的转换,可以在源文件做以下修改:
# conver.py
对比:
编辑部一共在数据库里存入了4300只股票所有的历史行情,一共1100多万行,虽然没有做严格的速度测试,但对以下简单查询语句在同一机器的MySQL和Clickhouse进行了对比。
MySQL 2620ms VS Clickhouse 10ms
SELECT COUNT(sec_code) FROM stock_daily_price;
MySQL 725ms VS Clickhouse 18ms
SELECT COUNT(distinct (sec_code)) FROM stock_daily_price;
MySQL 10ms VS Clickhouse 2.2ms
SELECT * FROM stock_daily_price WHERE sec_code='600000.SZ' LIMIT 10;
量化研究,特别是多因子测试,经常需要获取上千只股票,不同日期的价格数据,所以我们在Python中直接连接数据库取数据,读取1000只股票2017年-2020年的行情数据(都使用in操作符),其中:
Clickhouse用时:132ms
MySQL用时:145秒
Clickhouse的速度是MySQL的1000倍!
发布于 2021-03-04 17:27
ClickHouse:存储A股数据实践相关推荐
- 《ClickHouse原理解析与应用实践》读书笔记(7)
开始学习<ClickHouse原理解析与应用实践>,写博客作读书笔记. 本文全部内容都来自于书中内容,个人提炼. 第9章: <ClickHouse原理解析与应用实践>读书笔记( ...
- 《ClickHouse原理解析与应用实践》读书笔记(2)
开始学习<ClickHouse原理解析与应用实践>,写博客作读书笔记. 本文全部内容都来自于书中内容,个人提炼. 第一章 -> 第二章: <ClickHouse原理解析与应 ...
- 《ClickHouse原理解析与应用实践》读书笔记(1)
开始学习<ClickHouse原理解析与应用实践>,写博客作读书笔记. 本文全部内容都来自于书中内容,个人提炼. 前言和推荐 略过 第1章 ClickHouse的前世今生 跟ck没多大关系 ...
- RoaringBitMap在ClickHouse和Spark之间的实践-解决数据仓库预计算多维分析问题
前面在Spark多维分析去重计数场景优化案例中说了一下Spark计算在多维分析场景中的弊端,多维度分析会导致数据量指数级膨胀,搭配上去重计算字段越多,膨胀倍数也是线性增长,通过BitMap这个案例 ...
- ClickHouse 在有赞的实践
分享嘉宾:陈琦(前) 有赞,编辑整理:刘鹏鹏 滴滴出行,出品平台:DataFunTalk 导读:有赞是什么?有赞是一家商家服务公司.致力于成为商家服务领域里最被信任的引领者:并持续做一个Enjoy的组 ...
- 分布式数据库灵活存储机制与应用实践
2019独角兽企业重金招聘Python工程师标准>>> 嘉宾介绍:郝大为,巨杉数据库技术总监,曾任职IBM DB2数据库部门以及亚信大数据部门,资深的数据库专家.拥有丰富的数据库开发 ...
- 微信后台基于时间序的新一代海量数据存储架构的设计实践
本文作者腾讯WXG后台开发工程师jeryyzhang,收录时有改动,感谢原作者的分享. 1.引言 大约3年前,微信技术团队分享了<微信后台基于时间序的海量数据冷热分级架构设计实践>一文,文 ...
- 对象存储场景化开发实践-马毅-专题视频课程
对象存储场景化开发实践-155人已学习 课程介绍 对象存储作为一种新型存储解决方案, 相对于传统的 NAS.SAN 存储, 具有无限扩容.安全可靠.简单易用.高性能.低成本等特点, 可 ...
- [大伽交流] 不见不散!8月23日k8s第7期直播:《K8S存储原理剖析与实践》
[大伽交流] 不见不散!8月23日k8s第7期直播:<K8S存储原理剖析与实践> 往期回顾+材料下载:https://bbs.huaweicloud.com/forum/thread-95 ...
- 唯品会基于 Clickhouse 存储日志的实践
1.背景 唯品会日志系统dragonfly 1.0是基于EFK构建,于2014年服务至今已长达7年,支持物理机日志采集,容器日志采集,特殊分类日志综合采集等,大大方便了全公司日志的存储和查询. 随着公 ...
最新文章
- 项目需求|3D结构光扫面(项目经费50万)
- 一文看懂NB-IoT!
- mse函数(均方误差函数)
- jupyter安装出现问题:安装后无法打开
- Python Email发送,通知业务完成
- excel高级筛选怎么用_python中实现excel的高级筛选
- 章乐焱 | 用“科技”监管“科技”,知识图谱能做什么?
- DelayedProduce分析
- ksd文件怎么导入存档_DAY5-step5 Python 示例说明 ZIP 压缩文件
- 数据库的设计及经典案例
- Eclipse ADT 更换主题
- p2p-如何拯救k8s镜像分发的阿喀琉斯之踵
- DNS用的是TCP协议还是UDP协议
- turtle库画一个正方形
- 电子时钟c语言课题介绍,电子时钟开题报告
- Linux桌面GUI系统的调度器应该怎么做才不卡顿呢?
- 计算机学院篮球队介绍,2018年校级篮球联赛计算机与信息学院篮球队专访
- u盘数据恢复,教你轻松搞定!
- 以太坊区块链浏览器(二)开发
- 【效率翻倍】vscode使用指南