话不多说,直接上能用的代码

import requests
import  datetime
import pymysql
from requests.adapters import HTTPAdapter
import timedef conn():connect = pymysql.connect(host='', user='', password='', database='shipinformation',charset='utf8')if connect:print("连接成功!")return connect
conn = conn()
# cursor = conn.cursor()##爬虫获取页面数据
url = "https://flash-api.jin10.com/get_flash_list"
header = {"x-app-id": "SO1EJGmNgCtmpcPF","x-version": "1.0.0",
}
queryParam = {"max_time": "2021-05-25 9:47:02","channel": "-8200",
}#循环爬取并插入数据:结束条件是爬不到数据为止
totalCount = 0
Data = requests.get(url, queryParam, headers=header).json()['data']
length = len(Data)
while (length > 0):for i in range(length):try:id = Data[i]['id']time1 = Data[i]['time']create_time = datetime.datetime.strptime(time1, "%Y-%m-%d %H:%M:%S")type = Data[i]['type']if type == 0:if len(Data[i]['data']) > 2:pic = Data[i]['data']['pic']content = Data[i]['data']['content'].replace('<b>','').replace('</b>','').replace('<br />','').replace('<br/>','')title = Data[i]['data']['title']elif len(Data[i]['data']) == 1:pic = Nonecontent = Data[i]['data']['content'].replace('<b>','').replace('</b>','').replace('<br />','').replace('<br/>','')title = Noneelse:pic = Data[i]['data']['pic']content = Data[i]['data']['content'].replace('<b>','').replace('</b>','').replace('<br />','').replace('<br/>','')title = Noneupdate_time = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime())print(id, time1, type, pic, content, title,update_time)except Exception as e:print(e)continuetotalCount += length# 修正下一个查询时间queryParam['max_time'] = Data[length - 1]['time']print('next queryParam is', queryParam['max_time'])# 再请求一次数据try:s = requests.Session()s.mount('http://', HTTPAdapter(max_retries=3))s.mount('https://', HTTPAdapter(max_retries=3))Data = requests.get(url, queryParam,timeout=5, headers=header).json()['data']length = len(Data)except Exception as e:print(e)print('all ok,totalCount is:', totalCount)

Python 爬金十数据相关推荐

  1. Python 爬金十数据并生成词云

    背景 用 Python 的 requests 模块爬取 金十数据 首页中间部分的资讯信息,练习了两种处理过程:写入 MySQL 数据库和词云分析,对比之下 Python 几行代码就能完成 MySQL入 ...

  2. python 实时数据推送_python scrapy 爬取金十数据并自动推送到微信

    一.背景 因业务需要获取风险经济事件并采取应对措施,但因为种种原因又疏忽于每天去查看财经日历,于是通过爬取金十数据网站并自动推送到微信查看. 二.目标实现 image 三.环境与工具 1.pychar ...

  3. 如何用python爬取网页数据,python爬取网页详细教程

    大家好,本文将围绕python怎么爬取网站所有网页展开说明,如何用python爬取网页数据是一个很多人都想弄明白的事情,想搞清楚python如何爬取网页数据需要先了解以下几个事情. 1.如何用Pyth ...

  4. python 小说-用Python爬下十几万本小说,再也不会闹书荒!

    原标题:用Python爬下十几万本小说,再也不会闹书荒! 自从看了师傅爬了顶点全站之后,我也手痒痒的,也想爬一个比较牛逼的小说网看看,于是选了宜搜这个网站,好了,马上开干,这次用的是mogodb数据库 ...

  5. python爬取网页公开数据_如何用Python爬取网页数据

    使用Python爬取网页数据的方法: 一.利用webbrowser.open()打开一个网站:>>> import webbrowser >>> webbrowse ...

  6. 编程python爬取网页数据教程_实例讲解Python爬取网页数据

    一.利用webbrowser.open()打开一个网站: >>> import webbrowser >>> webbrowser.open('http://i.f ...

  7. Python爬取天气数据及可视化分析!

    来源丨Python之王 Python爬取天气数据及可视化分析 说在前面 天气预报我们每天都会关注,我们可以根据未来的天气增减衣物.安排出行,每天的气温.风速风向.相对湿度.空气质量等成为关注的焦点.本 ...

  8. Python爬取的数据存为json文件,并读取

    Python爬取的数据存为json文件,并读取 import requests import time from lxml import etree import jsondef json_data_ ...

  9. python爬虫教程:实例讲解Python爬取网页数据

    这篇文章给大家通过实例讲解了Python爬取网页数据的步骤以及操作过程,有兴趣的朋友跟着学习下吧. 一.利用webbrowser.open()打开一个网站: >>> import w ...

最新文章

  1. ethereumjs/ethereumjs-util
  2. python numpy.array_python list numpy.array区别
  3. linux下调试core的命令
  4. 虚拟化服务器故障,修复vSphere vCenter服务器故障的技巧
  5. 哈夫曼编码 译码java_基于Java的哈夫曼编码译码系统_报告毕业论文
  6. 【学习笔记】opencv的python接口 形态学操作 腐蚀 膨胀 通用形态学函数
  7. 16.validate_api
  8. Windows 11 小技巧- WSL运行本地GPU算力
  9. 基于酷Q的工作秘书机器人
  10. 如何在多个SQL Server上执行作业
  11. 网站服务器建立数据库连接时出错,WordPress提示建立数据库连接出错的解决办法...
  12. VsCode中文输出为乱码的原因及解决方法
  13. dp hp oracle 备份软件_HP DP备份软件设置
  14. 计算机如何分割硬盘,电脑硬盘怎么分区 电脑硬盘分区方法大全
  15. 从顺序数组1到10中查找数字 并打印下标
  16. [GAMIT/GLOBK学习笔记]globk_comb.cmd/glorg_comb.cmd文件详解
  17. 无感延迟智能降噪,一款无线蓝牙耳机体验分享,值得安利
  18. Spring Boot Freemarker 模板调用Java方法
  19. 程序员应该访问的最佳网站
  20. OOP_多态(C#)

热门文章

  1. 共享汽车倒下了,为何我感觉心中的石头终于落地?
  2. python 抓取lol主播排行
  3. NS2中的数据包common头结构hdr_cmn
  4. 30天敏捷结果(12):效率角色-你是启动者还是完成者?
  5. 蓝桥杯2014省赛——等额本金(Java)
  6. JVM成神之路-JVM内存结构
  7. java 生成二维码,解析二维码
  8. 象棋机器人 1 数据分析收集-爬虫编写
  9. 复辟变后寄友人——李大钊
  10. 如何证明圆锥面积=1/3圆柱面积?