python 爬取 js渲染_scrapy 爬取 javascript 动态渲染页面
前言
初因是给宝宝制作拼音卡点读包时,要下载卖家提供给的MP3,大概有2百多个。作为一个会码代码的非专业人士,怎么可能取一个一个下载?所以就决定用python 的 scrapy 框架写个爬虫,去下载这些MP3。一开始以为简单,直到完成下载,竟然花了我一下午的时间。最大的难题就是页面的数据是通过javascript 脚本动态渲染的。百度上大部分方法都是通过splash 做中转实现的方法,而我只是想简单的写个代码实现而已,看splash还要挂docker,巴啦巴啦一大堆的操作,顿时就心塞了。通过百度和自己实践,终于找到了一个最简单的方法解决了问题,特此记录下来,同大家分享一下。
页面分析
先开始分析目标html
首页
韵母列表页
拼音 e MP3 页
看着简单吧,可一爬取,问题立马就出现了,curl下静态页看看。
curl -s https://biz.cli.im/test/CI525711?stime=2 >111.html
首页竟是这样的,页面的列表数据,是通过javascript 动态渲染的。
是个json 数据,再格式化后分析下,页面link 都在data 这个json数据里了。
代码实现
最基础的response.xpath 方式是不能用了,我的思路是把scripts 获取出来,然后用获取soncode_link 的值。
经过研究决定用 BeautifulSoup + js2xml
class JingboSpider(scrapy.Spider):
name = 'jingbo'
allowed_domains = ['biz.cli.im']
all_urls= "https://biz.cli.im"
start_urls = ['test/CI525711?stime=2']
def start_requests(self):
#自定义headers
for url in self.start_urls:
yield scrapy.Request(self.all_urls+"/"+url, headers={"User-Agent": USER_AGENT})
def parse(self, response):
resp = response.text
# 用lxml作为解析器 ,解析返回数据
soup = BeautifulSoup(resp,'lxml')
# 获取所有script 标签数据,并遍历查找
scripts = soup.find_all('script')
for script in scripts:
if type(script.string) is type(None):
continue
if script.string.find("loadtemp();") > 0:
src=script
break
title="title"
link="soncode_link"
# 将js 数据转化为 xml 标签树格式
src_text = js2xml.parse(src.string, encoding='utf-8',debug=False)
src_tree = js2xml.pretty_print(src_text)
# print(src_tree)
selector = etree.HTML(src_tree)
links = selector.xpath("//property[@name = '"+link+"']/string/text()")
playurl = selector.xpath("//property[@name = 'play_url']/string/text()")
titles = selector.xpath("//property[@name = '"+title+"']/string/text()")
#剩下就是循环获取页面,下载MP3文件了。
scrapy 环境安装
pip install Twisted‑18.9.0‑cp37‑cp37m‑win_amd64.whl
pip install pypiwin32 js2xml urllib2 Scrapy
创建项目
scrapy startproject pinyin
创建 任务
开始爬取
scrapy crawl jingbo
最后战果
参考文档
python 爬取 js渲染_scrapy 爬取 javascript 动态渲染页面相关推荐
- driver.get调用iframe中的页面_【5分钟玩转Lighthouse】爬取JavaScript动态渲染页面
0x00 背景概述 通过[技术干货 007 | Scrapy爬虫初探]教程,大家应该已经对如何编写爬虫有了一定的认识.但对于较为复杂的网站设计,比如网站页面使用了JavaScript动态渲染,入门级的 ...
- python实现矢量分级渲染_用 Python 撸一个 Web 服务器-第4章:动态渲染数据
上一章中为了尽快让 Todo List 程序跑起来,并没有完全按照 MVC 模式编写程序.这一章就让我们一起实现一个完整的 MVC 模式 Todo List 程序首页. 使用模型操作数据 我们来分析下 ...
- 一个div 上下两行_用 Python 撸一个 Web 服务器第4章:动态渲染数据
上一章中为了尽快让 Todo List 程序跑起来,并没有完全按照 MVC 模式编写程序.这一章就让我们一起实现一个完整的 MVC 模式 Todo List 程序首页. 使用模型操作数据 我们来分析下 ...
- python爬取js加载的数据_JS动态加载数据不会爬?老司机教你两个方法爬取想要的数据...
学习Python的人绝大部分都是在用Python做爬虫,毕竟对于爬虫而言Python是不二选. 但是一般简单的静态页面网站还是很好爬取的,对于很多动态加载的网站就不知道怎么办了,今天小编就给大家介绍两 ...
- JavaScript 动态渲染页面爬取(二) —— 基于 Splash
目录 一.安装 Splash 二.Splash 的使用 一.安装 Splash Splash 是一个 JavaScript 渲染服务,是一个含有 HTTP API 的轻量级浏览器,它还对接了 Pyth ...
- Scrapy爬虫框架(实战篇)【Scrapy框架对接Splash抓取javaScript动态渲染页面】
(1).前言 动态页面:HTML文档中的部分是由客户端运行JS脚本生成的,即服务器生成部分HTML文档内容,其余的再由客户端生成 静态页面:整个HTML文档是在服务器端生成的,即服务器生成好了,再发送 ...
- Splash抓取javaScript动态渲染页面
一.概述 Splash是一个javascript渲染服务.它是一个带有HTTP API的轻量级Web浏览器,使用Twisted和QT5在Python 3中实现.QT反应器用于使服务完全异步,允许通过Q ...
- PHP js curl,php curl 获取javascript动态生成的值
我在做一个青果教务系统的模拟登录,使用php的curl,我是新手,边学边做的,它的登录页面有几个hidden的值,发现有一个值是javascript动态生成的,用curl抓取的时候是空的,我要怎么抓取 ...
- python爬虫微博粉丝数据_Scrapy 爬取新浪微博数据分析男女粉丝数量
通过之前爬取新浪微博发现,无论通过http://m.weibo.cn这里,还是http://weibo.cn这里,都没办法获取全部粉丝数据 那如果我想分析一个明星的男女粉丝数据怎么办,比如想知道某明星 ...
- python爬虫进阶js逆向实战 | 爬取 破解某安部加速乐cookie
很久没有写技术性的文章了,最近打算更新一系列的js逆向实战 今天的网站是某安部的一个加密cookie的分析跟破解 aHR0cHM6Ly93d3cubXBzLmdvdi5jbi9uMjI1NDA5OC9 ...
最新文章
- C#里的登陆关闭问题。
- 【Knockout】二、监控属性Observables
- AdaBoost 算法 入门
- Qt文档阅读笔记-共享库的创建与调用
- ZooKeeper(一)linux上单机与集群的搭建
- php $rs1- gt eof,PHP_PHP速成大法,简单介绍一下PHP的语法
1、嵌 - phpStudy
- 买下千万美元豪宅的库克 在周日获得了价值3600万美元股票
- 无法鼠标拖动选择_在 iPad 上用鼠标体验怎么样?我用这 12 款 App 试了一下
- MDC介绍 -- 一种多线程下日志管理实践方式
- 办公自动化系统项目报告
- Java 猜单词游戏
- 国密祖冲之算法ZUC之Python实现
- 得物购买截图生成_这应该是目前为止,iPhone上最好的长截图工具!
- MaskRCNN源码解析1:整体结构概述
- android棒棒糖,Android L正式定名Lollipop(棒棒糖)
- 你会给论文正确加引用吗?
- 维谛技术(Vertiv):致力于“新基建”的数字基石
- 【Python爬虫】(一)requests:verify关健字参数
- form表单提交三种方式,demo实例详解
- Java项目:SSH高校科研管理系统平台