HTML解析没有详情页url,爬虫找不到详情页URL的参数
第一种情况
这是网址
我要做的是获取全部数据包括列表页和详情页
这个网站看上去是很容易获取,都是很标准的格式,只是详情页跳转了一次url,翻页虽然没用参数但是有data,一切看上去都很容易。
翻页方案一
driver = webdriver.Firefox()
driver.get(response.url)
soup = BeautifulSoup(driver.page_source, 'lxml')
for i in range(300):
table=soup.find('table',class_='Winstar-table').find_all('tr')
#解析迭代
driver.find_element_by_link_text('[下一页]').click()
time.sleep(2)
soup = BeautifulSoup(driver.page_source, 'lxml')
driver.close()
翻页方案二
VIEWSTATE = response.xpath("//input[@id='__VIEWSTATE']/@value").extract_first()
EVENTVALIDATION = response.xpath("//input[@id='__EVENTVALIDATION']/@value").extract_first()
for i in range(392):
data = {
'__EVENTTARGET': '_ctl9$lbtnNextPage',
'__EVENTARGUMENT': '',
'__LASTFOCUS': '',
'__VIEWSTATE': VIEWSTATE,
'__EVENTVALIDATION': EVENTVALIDATION,
'_ctl9:dprlEnterpriseType': '01',
'_ctl9:dprlEnterpriseClassify': '',
'_ctl9:txtEnterpriseName': '',
'_ctl9:txtGotoPage': ''
}
#迭代
res = requests.post(response.url, headers=self.headers1, data=data)
html = etree.HTML(res.text)
VIEWSTATE = html.xpath("//input[@id='__VIEWSTATE']/@value")[0]
EVENTVALIDATION = html.xpath("//input[@id='__EVENTVALIDATION']/@value")[0]
方案二我一开始用的 BeautifulSoup去解析,但是没成功,后来小伙伴改用了xpath,我发现是我少加了一个参数。
接下来就是进入到详情页
截图一.png
截图一是在列表页获取的详情页URL但是里面的内容并不全,真正的信息在下面
截图二.png
根据请求的URL特点,就是找到一个RelatingID
我去看了请求页的源码
function tonclick(id)
{
if(id.length == 3)//id长度判断,=3的才是实际节点。
{
var ran = randomnumber=Math.floor(Math.random()*100);
var itemtype = GetUrlParam("ItemType");
var itemid = GetUrlParam("ItemID");
var tabid = GetUrlParam("tabid");
var moduleid = GetUrlParam("moduleid");
var resourceID = GetUrlParam("ResourceID");
window.open(InfoTable.OpenUrl(itemtype,itemid,id).value+"&tabid="+tabid+"&moduleid="+moduleid+"&ResourceID="+resourceID+"&Ran="+ran,'main')
}
};
function GetUrlParam( paramName )
{
var oRegex = new RegExp( '[\?&]' + paramName + '=([^&]+)', 'i' ) ;
var oMatch = oRegex.exec( window.location.search ) ;
if ( oMatch && oMatch.length > 1 )
return oMatch[1] ;
else
return '' ;
}
function loadxml(tableid)
{
document.getElementById("treebox").innerHTML="";//先将树清空。
tree=new dhtmlXTreeObject("treebox","100%","100%",0);
tree.setImagePath("Skin/Default/Image/");
tree.setOnClickHandler(tonclick);
tree.loadXMLString('');
tonclick(tableid);//加载默认打开页面
}
function loadpage(itemtype)
{
var itemid = GetUrlParam("ItemID");
var tabid = GetUrlParam("tabid");
var moduleid = GetUrlParam("moduleid");
var resourceID = GetUrlParam("ResourceID");
location.href = "InfoTable.aspx?ItemID="+itemid+"&ItemType="+itemtype+"&tabid="+tabid+"&moduleid="+moduleid+"&ResourceID="+resourceID;
}
开始我觉的是逆向解开就能得到RelatingID,但是仔细找找你就会发现RelatingID藏得并不复杂
截图三.png
打开详情页的url会调用/ajax/JSJG.CollectionLoad.WebUI.InfoTable,JSJG.CollectionLoad.WebUI.ashx这个请求,获取一个详情的URL
重点来了
截图四.png
调用/ajax/JSJG.CollectionLoad.WebUI.InfoTable,JSJG.CollectionLoad.WebUI.ashx会用到Payload参数
下面是获取RelatingID的代码
referer='http://host/'+tr.find('a')['onclick'].split('(\'')[1].split('\'')[0]
ItemID =referer.split('ItemID=')[1].split('&')[0]
ItemType ='01'
url = 'http://host/ajax/JSJG.CollectionLoad.WebUI.InfoTable,JSJG.CollectionLoad.WebUI.ashx?_method=OpenUrl&_session=no'
payload = 'itemtype={}\r\nitemid={}\r\ntable=011'.format(ItemType, ItemID)
headers = {
'Referer':str(referer),
'Host':'host',
'Content-Type':'text/plain;charset=UTF-8',
'Origin':'http://host',
'Accept':'*/*',
'Accept-Encoding':'gzip, deflate',
'Accept-Language':'zh-CN,zh;q=0.9',
'Connection': 'keep-alive',
'Content-Length': '67',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.18 Safari/537.36', }
res = requests.post(url, headers=headers, data=payload)
RelatingID = re.search("RelatingID=(.*?)'", res.text).group(1)
特别提示要注意payload传参方式
到这里就获取到了RelatingID,然后拼接一下URL,解析保存然后任务就完成啦!
但是程序跑完我发现保存的数据大概只有六页
因为我用到了两次headers,第一个headers在所有方法的最前面,第二个headers是在一个方法里面
headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.18 Safari/537.36'}
self.headers['Referer'] = referer
self.headers['Host'] = 'host'
self.headers['Content-Type'] = 'text/plain;charset=UTF-8'
self.headers['Origin'] = 'http://host'
self.headers['Accept'] = '*/*'
self.headers['Accept-Encoding'] = 'gzip, deflate'
self.headers['Accept-Language'] = 'zh-CN,zh;q=0.9'
self.headers['Connection'] = 'keep-alive'
self.headers['Content-Length'] = '67'
我掉进的坑是这俩重名但是在方法内部使用了self来调用,这就导致它请求的时候会认为我是调用的全局headers而不是方法内部的headers
解决完重跑可以得到全部5k+的数据了,开心
最后感谢我的小伙伴给与我的帮助
未完待续。。。
HTML解析没有详情页url,爬虫找不到详情页URL的参数相关推荐
- python爬虫下一页_python爬虫怎么获取下一页的url
如何用python实现爬虫抓取网页时自动翻页在你没有任何喜欢的人的时候,你过得是最轻松快乐的,尽管偶尔会觉得孤单了点. 小编把网页的第一篇内容抓取好了,但是用python怎么抓取后面的 又如何停止那天 ...
- python爬虫 点击下一页_python爬虫实现获取下一页代码
我们首先来看下实例代码: from time import sleep import faker import requests from lxml import etree fake = faker ...
- python爬虫怎么翻页_python爬虫_入门_翻页
写出来的爬虫,肯定不能只在一个页面爬,只要要爬几个页面,甚至一个网站,这时候就需要用到翻页了 其实翻页很简单,还是这个页面http://bbs.fengniao.com/forum/10384633. ...
- python爬取多页_Python 爬虫 2 爬取多页网页
本文内容: Requests.get 爬取多个页码的网页 例:爬取极客学院课程列表 爬虫步骤 打开目标网页,先查看网页源代码 get网页源码 找到想要的内容,找到规律,用正则表达式匹配,存储结果 Re ...
- Python爬虫淘宝商品详情页价格、类似数据
在讲爬取淘宝详情页数据之前,先来介绍一款 Chrome 插件:Toggle JavaScript (它可以选择让网页是否显示 js 动态加载的内容),如下图所示: 当这个插件处于关闭状态时,待爬取 ...
- Django学习之旅(六)自定义URL规则(博客详情页)
本篇博客同样参照追梦人物老师的博客详情页课程,记录自己的学习过程.本篇博客的重点在于自定义URL规则的使用. 整体结构 -- urls模块中自定义URL --- 从访问路径中获取参数pk -- 配置视 ...
- python爬取二级页面_爬虫代码改进(二)|多页抓取与二级页面
本文是下面两篇文章的续篇 本系列包括如下内容抓取豆瓣top250一页多个字段 整合成列表 存储为json文件 定义成函数形式 多页抓取之构造url 多页抓取之翻页 抓取二级页面数据 通过生成器优化代码 ...
- 爬虫剑谱第十页(关于拼多多商品信息的爬取<修改版>)
关于此前发布了一篇关于爬取拼多多商品信息的博客:爬虫剑谱第七页(输入关键词爬取拼多多商品信息并进行保存)_独一无二的李狗蛋儿的博客-CSDN博客出现了问题,运行结束后无法返回数据,up主在这里重新进行 ...
- html列表详情页,如何区分一个页面是列表页还是详情页
解析页面是做爬虫的过程中的重要环节,而且如果站点多了,解析也会变得非常复杂,所以智能化解析就可能是一个不错的解决方案.如果我们能够容忍一定的错误率,那么我们可以利用智能化解析算法帮我们提取一些内容,简 ...
最新文章
- pandas使用query函数基于组合索引筛选dataframe的数据行(与and、或or、非not)
- 特斯拉自动驾驶新能力:识别红绿灯停车标识;尝鲜车主:实用好用
- CCF-CSP 201703-1 试题名称:	分蛋糕
- 深入理解Java的整型类型:如何实现2+2=5?
- c#滚动条创建实例,多线程
- opengl层次建模_层次建模简介
- Docker~从Dockerfile到Container的过程
- LeetCode 1014. 最佳观光组合
- 符号说明表怎么做_能看懂这些房屋施工图,说明你家装修没问题了
- MySQL:进阶应用
- 第二篇 Python数据类型、字符编码、文件处理
- 我们说的目标导向不是 “唯结果论”
- redis运行redis-server.exe错误
- SkinSharp函数文档
- 在 JDK 1.4 中打印
- [转]什么?你还不会写JQuery 插件
- SQL-SERVER的STUFF函数group by 分组,字符串合并
- 《守望先锋》和《炉石传说》的公司动视暴雪裁员800人,2019年将难有好作品出现
- 中产阶级成为P2P网贷借款人最主要的来源
- 运行 python 程序报错 /libmkl_avx2.so: undefined symbol: mkl_sparse_optimize_bsr_trsm_i8 的解决方法
热门文章
- .NET Core,PostgreSQL和文档数据库
- python计算相关性显著性p值_基于python实现计算两组数据P值
- c语言字符串截取_一文搞懂 C 语言 #、##、__VA_ARGS__
- python单选题库答案_大学慕课2020用Python玩转数据题库及答案
- latex 公式编号_放弃mathtype,word也可以轻松输入公式
- python while for 只循环一次,如何在python 3中为每个inside和while循环只执行一次代码块...
- Eclipse运行程序报错: Errors running builder ‘Integrated External Tool Builder‘ on project
- ViewData 和TempData ,Session用法
- 计算机考题中有关反码的考题,2019陕西信合招聘笔试模拟试题-计算机知识8
- 镇江高等专科学校计算机考试,镇江市人事考试考工服务平台