python爬虫爬取深交所数据

话不多说,直接上代码:

import requests
from bs4 import BeautifulSoup
import xlwtheaders = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.150 Safari/537.36 Edg/88.0.705.63'}def Get_data(url):jsondata = requests.get(url,headers=headers).json()data1 = jsondata[0]list_col = data1['metadata']cols = list_col['cols']data2 = data1['data']COLS = []ROW1 = []ROW2 = []ROW3 = []ROW4 = []col1 = cols['lbmc']col2 = cols['zqsl']col3 = cols['zgb']col4 = cols['sjzz']col5 = cols['cjje']COLS.append(col1)COLS.append(col2.replace('<br>','/'))COLS.append(col3.replace('<br>','/'))COLS.append(col4.replace('<br>','/'))COLS.append(col5.replace('<br>','/'))row1 = data2[0]row11 = row1['lbmc']row12 = row1['zqsl']row13 = row1['zgb']row14 = row1['sjzz']row15 = row1['cjje']ROW1.append(row11)ROW1.append(row12)ROW1.append(row13)ROW1.append(row14)ROW1.append(row15)row2 = data2[1]row21 = row2['lbmc']row22 = row2['zqsl']row23 = row2['zgb']row24 = row2['sjzz']row25 = row2['cjje']ROW2.append(row21[-3:])ROW2.append(row22)ROW2.append(row23)ROW2.append(row24)ROW2.append(row25)row3 = data2[2]row31 = row3['lbmc']row32 = row3['zqsl']row33 = row3['zgb']row34 = row3['sjzz']row35 = row3['cjje']ROW3.append(row31[-3:])ROW3.append(row32)ROW3.append(row33)ROW3.append(row34)ROW3.append(row35)row4 = data2[3]row41 = row4['lbmc']row42 = row4['zqsl']row43 = row4['zgb']row44 = row4['sjzz']row45 = row4['cjje']ROW4.append(row41[-5:])ROW4.append(row42)ROW4.append(row43)ROW4.append(row44)ROW4.append(row45)print('*'*101)print('{0}      {1}       {2}       {3}        {4}'.format(col1,col2.replace('<br>','/'),col3.replace('<br>','/'),col4.replace('<br>','/'),col5.replace('<br>','/')))print('{0}          {1}                   {2}           {3}             {4}'.format(row11,row12,row13,row14,row15))print('{0}           {1}                   {2}           {3}             {4}'.format(row21[-3:],row22,row23,row24,row25))print('{0}           {1}                   {2}            {3}              {4}'.format(row31[-3:],row32,row33,row34,row35))print('{0}      {1}                       {2}               {3}                  {4}'.format(row41[-5:],row42,row43,row44,row45))print('*'*101)book = xlwt.Workbook(encoding='utf-8',style_compression=0)sheet = book.add_sheet('深交所基金市场概况',cell_overwrite_ok=True)for Col in range(len(COLS)):sheet.write(0,Col,COLS[Col])for Row1 in range(len(ROW1)):sheet.write(1,Row1,ROW1[Row1])for Row2 in range(len(ROW2)):sheet.write(2,Row2,ROW2[Row2])for Row3 in range(len(ROW3)):sheet.write(3,Row3,ROW3[Row3])for Row4 in range(len(ROW4)):sheet.write(4,Row4,ROW4[Row4])book.save("C:/Users/DELL/Desktop/深交所基金市场概况.xls")if __name__ == '__main__':url = 'http://fund.szse.cn/api/report/ShowReport/data?SHOWTYPE=JSON&CATALOGID=lf_fund_scgk&loading=first&random=0.9140249439976937'Get_data(url)

运行结果:

python爬虫爬取深交所数据相关推荐

  1. python爬虫数据分析可以做什么-python爬虫爬取的数据可以做什么

    在Python中连接到多播服务器问题,怎么解决你把redirect关闭就可以了.在send时,加上参数allow_redirects=False 通常每个浏览器都会设置redirect的次数.如果re ...

  2. Python爬虫爬取疫情数据并可视化展示

    这篇文章主要介绍了Python利用爬虫爬取疫情数据并进行可视化的展示,文中的示例代码讲解清晰,对工作或学习有一定的价值,需要的朋友可以参考一下.编程资料点击领取 目录 知识点 开发环境 爬虫完整代码 ...

  3. python 爬虫爬取疫情数据,爬虫思路和技术你全都有哈(一)

    python 爬虫爬取疫情数据,爬虫思路和技术你全都有哈(二.数据清洗及存储) 爬起疫情数据,有两个网址: 1.百度:链接 2.丁香园疫情:链接 在这两个中,丁香园的爬虫相对简单一点,所以今天就展示一 ...

  4. Python爬虫爬取网页数据并存储(一)

    Python爬虫爬取网页数据并存储(一) 环境搭建 爬虫基本原理 urllib库使用 requests库使用 正则表达式 一个示例 环境搭建 1.需要事先安装anaconda(或Python3.7)和 ...

  5. python 爬虫爬取疫情数据,爬虫思路和技术你全都有哈(二)

    上一章: python 爬虫爬取疫情数据,爬虫思路和技术你全都有哈(一.爬虫思路及代码) 第三步:数据清洗 清洗数据很简单,就是数据太乱的话,就得花些时间,所以一定要有一个好的方法,才能避免在清洗数据 ...

  6. java爬虫抓取nba_利用Python爬虫爬取NBA数据功能实例分享

    Python实现爬虫爬取NBA数据功能示例 本文实例讲述了Python实现爬虫爬取NBA数据功能.分享给大家供大家参考,具体如下: 爬取的网站为:stat-nba.com,这里爬取的是NBA2016- ...

  7. python爬网站数据实例-利用Python爬虫爬取NBA数据功能实例分享

    Python实现爬虫爬取NBA数据功能示例 本文实例讲述了Python实现爬虫爬取NBA数据功能.分享给大家供大家参考,具体如下: 爬取的网站为:stat-nba.com,这里爬取的是NBA2016- ...

  8. python如何爬虫网页数据-python爬虫——爬取网页数据和解析数据

    1.网络爬虫的基本概念 网络爬虫(又称网络蜘蛛,机器人),就是模拟客户端发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序. 只要浏览器能够做的事情,原则上,爬虫都能够做到. ...

  9. python爬虫爬取的数据与浏览器获取的数据不一样 爬虫爬取到的数据一直不变

    具体问题 在爬取某个网站时遇到了一个奇怪的问题,就是只要是python爬取的数据得到的基本就是那么几种数据,无论我输入的是什么,返回的数据与浏览器得到返回的数据都不一样,这让我很郁闷,百度也找不到想要 ...

  10. python爬虫爬取天气数据并图形化显示

    前言 使用python进行网页数据的爬取现在已经很常见了,而对天气数据的爬取更是入门级的新手操作,很多人学习爬虫都从天气开始,本文便是介绍了从中国天气网爬取天气数据,能够实现输入想要查询的城市,返回该 ...

最新文章

  1. 简介SharePoint 2010 14 Hive文件夹
  2. 用户列表-投资记录sql
  3. Linux安全管理:一,sshd配置
  4. getResources().getIdentifier(textView01, id, cn.xxx.xxx);
  5. 将JSON格式数据转换为javascript对象 JSON.parse()
  6. Django——Model
  7. linux go 安装路径,在Alpine Linux D的路径中找不到已安装的Go二进制文件
  8. jQuery的实现原理
  9. ssh隧道 mysql,如何通过SSH隧道连接MySQL
  10. ARM指令ldr、str、stm、ldm理解
  11. 构建微服务体系结构的最佳实践
  12. python爬虫英文怎么说_python爬虫腾讯翻译实现中英翻译
  13. 安装vc2005运行库错误1935c处理
  14. 联想小新13pro锐龙版网卡_4499元诠释极致性价比 联想小新Pro 13标压锐龙版上手...
  15. 手写汉字识别程序开发
  16. ScrollMagic结合TweenMax的Demo
  17. 链表(提高)-数据结构(二)
  18. Cadence Allegro解散Group组图文教程及视频演示
  19. OEM,ODM,OBM,JDM概念
  20. cad文档服务器部署,云服务器安装cad

热门文章

  1. Template.js
  2. HTTP协议和web服务技术---Apche配置
  3. Docker Swarm secrets
  4. 谢耳朵最萌最贱表情, 哈哈
  5. 平行时代的平行智能体系(王飞跃)
  6. oracle 百分比换算问题
  7. 950个织梦网dede模板源码
  8. Blender 2.8 【修改器】快捷键备忘录 学习笔记
  9. 同一台计算机同时安装多个打印机,r230驱动-同一台电脑可不可以装两台同品牌同型号的打印 – 手机爱问...
  10. python用smtp发邮件怎么抄送_Python发送邮件并抄送