pyspark 连接mysql
1:载mysql-connector 放入 jars下
2:在spark-env.sh中 配置EXTRA_SPARK_CLASSPATH环境变量
3:export SPARK_CLASSPATH=/opt/spark/spark-2.4.0-bin-hadoop2.7/jars
from pyspark.sql import SparkSession
from pyspark.sql import SQLContextsc = SparkSession.builder.appName("Python Spark SQL basic example")\.config('spark.some.config,option0','some-value')\.getOrCreate()
ctx = SQLContext(sc)
jdbcDf=ctx.read.format("jdbc").options(url="jdbc:mysql://localhost:3306/stock",driver="com.mysql.jdbc.Driver",dbtable="(SELECT * FROM stock) tmp",user="root",password="0845").load()
print(jdbcDf.printSchema())print(jdbcDf.show())
root|-- open: double (nullable = true)|-- high: double (nullable = true)|-- close: double (nullable = true)|-- low: double (nullable = true)|-- volume: double (nullable = true)|-- price_change: double (nullable = true)|-- p_change: double (nullable = true)|-- ma5: double (nullable = true)|-- ma10: double (nullable = true)|-- ma20: double (nullable = true)|-- v_ma5: double (nullable = true)|-- v_ma10: double (nullable = true)|-- v_ma20: double (nullable = true)None
+-----+-----+-----+-----+----------+------------+--------+------+------+------+----------+----------+----------+
| open| high|close| low| volume|price_change|p_change| ma5| ma10| ma20| v_ma5| v_ma10| v_ma20|
+-----+-----+-----+-----+----------+------------+--------+------+------+------+----------+----------+----------+
|13.06|13.15|13.08|12.84|1245760.12| 0.02| 0.15| 12.85| 12.43|11.831| 1587358.4|1669658.01|1338502.95|
|12.91|13.29|13.06|12.84|1408422.25| 0.07| 0.54|12.714|12.263|11.725|1734009.15|1628344.98| 1311815.0|
| 12.7|13.38|12.99|12.62| 2456830.5| 0.23| 1.8|12.542|12.084|11.622| 1855833.7|1614590.97|1282725.44|
|12.48|12.78|12.76| 12.2|1712679.25| 0.4| 3.24|12.454|11.921|11.519| 1929454.6|1494460.14|1211679.41|
|12.44|12.61|12.36|12.27|1113099.88| -0.04| -0.32| 12.21| 11.74|11.431| 1823728.3|1433204.97|1231463.54|
|12.24|12.66| 12.4|12.15|1979013.88| 0.2| 1.64| 12.01|11.629|11.339|1751957.63| 1408813.5|1209770.59|
|12.55|12.57| 12.2|12.15| 2017545.0| -0.35| -2.79|11.812|11.527|11.237|1522680.81|1324648.69|1137713.73|
| 11.7|12.64|12.55|11.57| 2824935.0| 1.01| 8.75|11.626|11.426|11.141|1373348.24|1218887.88|1058057.16|
|11.35|11.57|11.54|11.15|1184047.75| 0.18| 1.58|11.388|11.292| 11.03|1059465.69|1016588.04| 949778.2|
|11.38|11.55|11.36|11.28| 754246.5| -0.05| -0.44| 11.27|11.258|10.975|1042681.64| 999610.27| 927515.47|
|11.33|11.53|11.41|11.25| 832629.81| 0.14| 1.24|11.248|11.232|10.919|1065669.37|1007347.89| 933943.74|
|11.36|11.62|11.27|11.24|1270882.12| -0.09| -0.79|11.242|11.186|10.873|1126616.56| 995285.02| 941197.22|
|11.05|11.36|11.36|11.04|1255522.25| 0.41| 3.74|11.226|11.159|10.821|1064427.51| 950859.92| 904761.14|
|11.23|11.23|10.95| 10.9| 1100127.5| -0.3| -2.67|11.196|11.117|10.759| 973710.39| 928898.67| 867007.21|
| 11.3|11.33|11.25|11.19| 869185.19| -0.13| -1.14|11.246|11.122|10.721| 956538.9|1029722.12| 846819.06|
|11.19|11.41|11.38|11.12|1137365.75| 0.19| 1.7|11.216|11.049|10.664| 949026.41|1010727.69| 856950.69|
| 11.2|11.31|11.19|11.03| 959936.88| -0.02| -0.18| 11.13|10.946|10.592| 863953.47| 950778.77| 861756.72|
|11.08|11.21|11.21|10.97| 801936.62| 0.01| 0.09|11.092|10.855|10.515| 837292.32| 897226.44| 833879.28|
| 11.2|11.25| 11.2|10.96|1014270.06| 0.1| 0.9|11.038|10.768|10.442| 884086.95| 882968.36| 837066.83|
|10.98| 11.2| 11.1|10.94| 831622.75| 0.15| 1.37|10.998|10.691|10.369|1102905.34| 855420.67| 860411.28|
+-----+-----+-----+-----+----------+------------+--------+------+------+------+----------+----------+----------+
only showing top 20 rowsNone
pyspark 连接mysql相关推荐
- pyspark连接mysql
首先按照以下连接先在本地mysql中导入数据: https://blog.csdn.net/appleyuchi/article/details/79439387 然后配置好各种文件以后,在subli ...
- centos7下载spark连接mysql数据库提取数据(pyspark,Scala,python独立执行)
原文连接: http://dblab.xmu.edu.cn/blog/1724-2/ 原文连接:https://mapr.com/support/s/article/PySpark-to-MySQL- ...
- pyspark 使用jdbc 连接mysql 数据库报错 Access denied for user 'root'@'localhost'
在使用jdbc开启pyspark shell 下载jar包:https://dev.mysql.com/downloads/connector/j/ tar -zxf mysql-connector- ...
- hadoop读取mysql数据_Pyspark连接mysql、hive、hdfs 实例展示
本文展示pyspark与mysql.hive.hdfs的连接实例.一是为了纪念:终于走过n个坑,自己搭配好本地hadoop环境:一是为了让还不会pyspark的人有个初步的印象,毕竟数据分析师除了会使 ...
- .net连接mysql数据_.net连接MYSQL数据库的方法及示例!
连接MYSQL数据库的方法及示例 方法一: 使用MYSQL推出的MySQL Connector/Net is an ADO.NET driver for MySQL 该组件为MYSQL为ADO.NET ...
- SQLALchemy之Python连接MySQL
20220225 https://www.cnblogs.com/toheart/p/9802990.html pymssql连接sqlserver https://blog.csdn.net/qq_ ...
- JDBC连接MySQL数据库及演示样例
JDBC是Sun公司制定的一个能够用Java语言连接数据库的技术. 一.JDBC基础知识 JDBC(Java Data Base Connectivity,java数据库连接)是一种用 ...
- windows nodejs mysql_windows server 安装 mysql + nondejs连接mysql
下载 安装 下载完后,将 zip 包解压到相应的目录,这里我将解压后的文件夹放在 C:\mysql 下. 接下来需要配置下 MySQL 的配置文件 打开刚刚解压的文件夹 C:\mysql ,在该文件夹 ...
- python用django连接mysql_三分钟了解Django如何连接Mysql数据库
处理用户注册请求.Django连接MysqL数据库相关配置.数据库迁移命令: my_Dproject/app01/views.py 在views函数文件中添加register函数,来处理用户注册 ...
最新文章
- android 蓝牙找不到电脑,Android6.0 蓝牙搜索不到设备原因
- 【Charles】Breakpoint 断点
- 洛谷——P1181 数列分段Section I
- linux升级补丁tar,Linux下Bash严重漏洞补丁升级方法
- html选择器_css的9个常用选择器
- 钉钉推出“钉工牌”,门禁、差旅、员工福利一码通用
- 四种方式话Equal
- OAuth 授权的工作原理是怎样的?
- centos php日志分析,Centos日志查看分析
- 托微软的福,谷歌把GitLab捧成了独角兽
- Zabbix触发器和监控项设置时间范围.
- 【转载】WebService到底是什么?
- Access Modify Change 三种时间戳详解
- Spring学习—Spring中定时器实现
- centos7 yum升级curl
- 二进制拆弹phase0
- mfc 中文乱码转换为正常中文_中文编码转换
- OpenHarmony介绍及相关资料
- 用CPU-Z查看内存插槽个数与频率
- 微信视频号服务商怎么赚钱?
热门文章
- linux6下kdump的配置
- 最佳实践: 勿在 Servlet 中实现 SingleThreadModel
- SqlServer 行转列
- WebRTC VideoEngine超详细教程(三)——集成X264编码和ffmpeg解码
- windows puppet manifests 文件维护
- live messenger与稀疏文件—Sparse File Bit
- CSP认证201612-3	权限查询[C++题解]:模拟题、结构体、set、有点复杂
- PAT甲级1135 Is It A Red-Black Tree (30分):[C++题解]判断红黑树
- 51单片机c语言数字输入输出,第五章 51单片机C语言程序--输入输出接口.pdf
- mysql中主键外键的作用_数据库主键和外键的作用以及索引的作用,它的优缺点是什么?...