第一种情况

这是网址

我要做的是获取全部数据包括列表页和详情页

这个网站看上去是很容易获取,都是很标准的格式,只是详情页跳转了一次url,翻页虽然没用参数但是有data,一切看上去都很容易。

翻页方案一

driver = webdriver.Firefox()

driver.get(response.url)

soup = BeautifulSoup(driver.page_source, 'lxml')

for i in range(300):

table=soup.find('table',class_='Winstar-table').find_all('tr')

#解析迭代

driver.find_element_by_link_text('[下一页]').click()

time.sleep(2)

soup = BeautifulSoup(driver.page_source, 'lxml')

driver.close()

翻页方案二

VIEWSTATE = response.xpath("//input[@id='__VIEWSTATE']/@value").extract_first()

EVENTVALIDATION = response.xpath("//input[@id='__EVENTVALIDATION']/@value").extract_first()

for i in range(392):

data = {

'__EVENTTARGET': '_ctl9$lbtnNextPage',

'__EVENTARGUMENT': '',

'__LASTFOCUS': '',

'__VIEWSTATE': VIEWSTATE,

'__EVENTVALIDATION': EVENTVALIDATION,

'_ctl9:dprlEnterpriseType': '01',

'_ctl9:dprlEnterpriseClassify': '',

'_ctl9:txtEnterpriseName': '',

'_ctl9:txtGotoPage': ''

}

#迭代

res = requests.post(response.url, headers=self.headers1, data=data)

html = etree.HTML(res.text)

VIEWSTATE = html.xpath("//input[@id='__VIEWSTATE']/@value")[0]

EVENTVALIDATION = html.xpath("//input[@id='__EVENTVALIDATION']/@value")[0]

方案二我一开始用的 BeautifulSoup去解析,但是没成功,后来小伙伴改用了xpath,我发现是我少加了一个参数。

接下来就是进入到详情页

截图一.png

截图一是在列表页获取的详情页URL但是里面的内容并不全,真正的信息在下面

截图二.png

根据请求的URL特点,就是找到一个RelatingID

我去看了请求页的源码

function tonclick(id)

{

if(id.length == 3)//id长度判断,=3的才是实际节点。

{

var ran = randomnumber=Math.floor(Math.random()*100);

var itemtype = GetUrlParam("ItemType");

var itemid = GetUrlParam("ItemID");

var tabid = GetUrlParam("tabid");

var moduleid = GetUrlParam("moduleid");

var resourceID = GetUrlParam("ResourceID");

window.open(InfoTable.OpenUrl(itemtype,itemid,id).value+"&tabid="+tabid+"&moduleid="+moduleid+"&ResourceID="+resourceID+"&Ran="+ran,'main')

}

};

function GetUrlParam( paramName )

{

var oRegex = new RegExp( '[\?&]' + paramName + '=([^&]+)', 'i' ) ;

var oMatch = oRegex.exec( window.location.search ) ;

if ( oMatch && oMatch.length > 1 )

return oMatch[1] ;

else

return '' ;

}

function loadxml(tableid)

{

document.getElementById("treebox").innerHTML="";//先将树清空。

tree=new dhtmlXTreeObject("treebox","100%","100%",0);

tree.setImagePath("Skin/Default/Image/");

tree.setOnClickHandler(tonclick);

tree.loadXMLString('');

tonclick(tableid);//加载默认打开页面

}

function loadpage(itemtype)

{

var itemid = GetUrlParam("ItemID");

var tabid = GetUrlParam("tabid");

var moduleid = GetUrlParam("moduleid");

var resourceID = GetUrlParam("ResourceID");

location.href = "InfoTable.aspx?ItemID="+itemid+"&ItemType="+itemtype+"&tabid="+tabid+"&moduleid="+moduleid+"&ResourceID="+resourceID;

}

开始我觉的是逆向解开就能得到RelatingID,但是仔细找找你就会发现RelatingID藏得并不复杂

截图三.png

打开详情页的url会调用/ajax/JSJG.CollectionLoad.WebUI.InfoTable,JSJG.CollectionLoad.WebUI.ashx这个请求,获取一个详情的URL

重点来了

截图四.png

调用/ajax/JSJG.CollectionLoad.WebUI.InfoTable,JSJG.CollectionLoad.WebUI.ashx会用到Payload参数

下面是获取RelatingID的代码

referer='http://host/'+tr.find('a')['onclick'].split('(\'')[1].split('\'')[0]

ItemID =referer.split('ItemID=')[1].split('&')[0]

ItemType ='01'

url = 'http://host/ajax/JSJG.CollectionLoad.WebUI.InfoTable,JSJG.CollectionLoad.WebUI.ashx?_method=OpenUrl&_session=no'

payload = 'itemtype={}\r\nitemid={}\r\ntable=011'.format(ItemType, ItemID)

headers = {

'Referer':str(referer),

'Host':'host',

'Content-Type':'text/plain;charset=UTF-8',

'Origin':'http://host',

'Accept':'*/*',

'Accept-Encoding':'gzip, deflate',

'Accept-Language':'zh-CN,zh;q=0.9',

'Connection': 'keep-alive',

'Content-Length': '67',

'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.18 Safari/537.36', }

res = requests.post(url, headers=headers, data=payload)

RelatingID = re.search("RelatingID=(.*?)'", res.text).group(1)

特别提示要注意payload传参方式

到这里就获取到了RelatingID,然后拼接一下URL,解析保存然后任务就完成啦!

但是程序跑完我发现保存的数据大概只有六页

因为我用到了两次headers,第一个headers在所有方法的最前面,第二个headers是在一个方法里面

headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.18 Safari/537.36'}

self.headers['Referer'] = referer

self.headers['Host'] = 'host'

self.headers['Content-Type'] = 'text/plain;charset=UTF-8'

self.headers['Origin'] = 'http://host'

self.headers['Accept'] = '*/*'

self.headers['Accept-Encoding'] = 'gzip, deflate'

self.headers['Accept-Language'] = 'zh-CN,zh;q=0.9'

self.headers['Connection'] = 'keep-alive'

self.headers['Content-Length'] = '67'

我掉进的坑是这俩重名但是在方法内部使用了self来调用,这就导致它请求的时候会认为我是调用的全局headers而不是方法内部的headers

解决完重跑可以得到全部5k+的数据了,开心

最后感谢我的小伙伴给与我的帮助

未完待续。。。

HTML解析没有详情页url,爬虫找不到详情页URL的参数相关推荐

  1. python爬虫下一页_python爬虫怎么获取下一页的url

    如何用python实现爬虫抓取网页时自动翻页在你没有任何喜欢的人的时候,你过得是最轻松快乐的,尽管偶尔会觉得孤单了点. 小编把网页的第一篇内容抓取好了,但是用python怎么抓取后面的 又如何停止那天 ...

  2. python爬虫 点击下一页_python爬虫实现获取下一页代码

    我们首先来看下实例代码: from time import sleep import faker import requests from lxml import etree fake = faker ...

  3. python爬虫怎么翻页_python爬虫_入门_翻页

    写出来的爬虫,肯定不能只在一个页面爬,只要要爬几个页面,甚至一个网站,这时候就需要用到翻页了 其实翻页很简单,还是这个页面http://bbs.fengniao.com/forum/10384633. ...

  4. python爬取多页_Python 爬虫 2 爬取多页网页

    本文内容: Requests.get 爬取多个页码的网页 例:爬取极客学院课程列表 爬虫步骤 打开目标网页,先查看网页源代码 get网页源码 找到想要的内容,找到规律,用正则表达式匹配,存储结果 Re ...

  5. Python爬虫淘宝商品详情页价格、类似数据

      在讲爬取淘宝详情页数据之前,先来介绍一款 Chrome 插件:Toggle JavaScript (它可以选择让网页是否显示 js 动态加载的内容),如下图所示: 当这个插件处于关闭状态时,待爬取 ...

  6. Django学习之旅(六)自定义URL规则(博客详情页)

    本篇博客同样参照追梦人物老师的博客详情页课程,记录自己的学习过程.本篇博客的重点在于自定义URL规则的使用. 整体结构 -- urls模块中自定义URL --- 从访问路径中获取参数pk -- 配置视 ...

  7. python爬取二级页面_爬虫代码改进(二)|多页抓取与二级页面

    本文是下面两篇文章的续篇 本系列包括如下内容抓取豆瓣top250一页多个字段 整合成列表 存储为json文件 定义成函数形式 多页抓取之构造url 多页抓取之翻页 抓取二级页面数据 通过生成器优化代码 ...

  8. 爬虫剑谱第十页(关于拼多多商品信息的爬取<修改版>)

    关于此前发布了一篇关于爬取拼多多商品信息的博客:爬虫剑谱第七页(输入关键词爬取拼多多商品信息并进行保存)_独一无二的李狗蛋儿的博客-CSDN博客出现了问题,运行结束后无法返回数据,up主在这里重新进行 ...

  9. html列表详情页,如何区分一个页面是列表页还是详情页

    解析页面是做爬虫的过程中的重要环节,而且如果站点多了,解析也会变得非常复杂,所以智能化解析就可能是一个不错的解决方案.如果我们能够容忍一定的错误率,那么我们可以利用智能化解析算法帮我们提取一些内容,简 ...

最新文章

  1. pandas使用query函数基于组合索引筛选dataframe的数据行(与and、或or、非not)
  2. 特斯拉自动驾驶新能力:识别红绿灯停车标识;尝鲜车主:实用好用
  3. CCF-CSP 201703-1 试题名称: 分蛋糕
  4. 深入理解Java的整型类型:如何实现2+2=5?
  5. c#滚动条创建实例,多线程
  6. opengl层次建模_层次建模简介
  7. Docker~从Dockerfile到Container的过程
  8. LeetCode 1014. 最佳观光组合
  9. 符号说明表怎么做_能看懂这些房屋施工图,说明你家装修没问题了
  10. MySQL:进阶应用
  11. 第二篇 Python数据类型、字符编码、文件处理
  12. 我们说的目标导向不是 “唯结果论”
  13. redis运行redis-server.exe错误
  14. SkinSharp函数文档
  15. 在 JDK 1.4 中打印
  16. [转]什么?你还不会写JQuery 插件
  17. SQL-SERVER的STUFF函数group by 分组,字符串合并
  18. 《守望先锋》和《炉石传说》的公司动视暴雪裁员800人,2019年将难有好作品出现
  19. 中产阶级成为P2P网贷借款人最主要的来源
  20. 运行 python 程序报错 /libmkl_avx2.so: undefined symbol: mkl_sparse_optimize_bsr_trsm_i8 的解决方法

热门文章

  1. .NET Core,PostgreSQL和文档数据库
  2. python计算相关性显著性p值_基于python实现计算两组数据P值
  3. c语言字符串截取_一文搞懂 C 语言 #、##、__VA_ARGS__
  4. python单选题库答案_大学慕课2020用Python玩转数据题库及答案
  5. latex 公式编号_放弃mathtype,word也可以轻松输入公式
  6. python while for 只循环一次,如何在python 3中为每个inside和while循环只执行一次代码块...
  7. Eclipse运行程序报错: Errors running builder ‘Integrated External Tool Builder‘ on project
  8. ViewData 和TempData ,Session用法
  9. 计算机考题中有关反码的考题,2019陕西信合招聘笔试模拟试题-计算机知识8
  10. 镇江高等专科学校计算机考试,镇江市人事考试考工服务平台