文书网在9月份终于更新了,上去看了一下,无比的流畅。秉持着一颗探索,天真的童心看看文书网这次更新有啥突破和进展,一言不合直接打开开发者工具,仔细寻找了一番,看到了一个可疑的连接,定睛一看,wc,参数这么多,加入参数,最后的返回值内竟然没有自己想要的文本内容,到底怎么弄!!!,可能很多小伙伴看到这里就开始怀疑自己了,这是啥玩意嘛,弄得这么复杂,还能不能愉快的玩耍了!
可是没办法嘛,我们要紧跟时代的步伐,慢慢来。经过一两个小时,调试js,终于拨开云雾,海阔天空。下面我们一一来分析这些参数。
1、pageid 其实这个参数我们可以猜想,可能是根据页数,通过某个加密函数进行加密,可是当我进行调试的时候,发现在改变页数的同时,他是不发生改变的。所以上面猜想失败。我全局搜索了一下pageid,出现很多,其中一个函数他尤其的亮眼,是他,是他,就是他,人群中最亮的仔。

其实观察源码发现,他是传入一个数,循环32次,每次输出一个16进制的数组成,没有什么难度。
2、s8 表示案件类型,05代表的是国家赔偿与司法救助案件,这些在wenshulist1.js这个js内全都有标注,可以自己去看(可以自己修改)
3、sortFields表示按照法院层级降序排列(可以自己修改)
4、ciphertext 这个参数其实也很好找,全局搜索

可以简单看下逻辑,前面几行都比较简单,重点是在 var enc这边,这边用到了一个DES3加密,也是这次更新可能唯一的难点,传入三个参数加密后,再经过strTobinary函数处理,就能得到该参数,DES3加密的函数在下方:

大约稍微那么一丢丢能看得懂,其实看不懂也没关系,python执行js就好了。
5、pagenum 当前的页数
6、querycondition 将之前那个转成字典再转化成列表就好了
7、cfg 固定参数
8、__RequestVerificationToken 唯一标致,也是一次获取后,后面也可以不发生改变,全局搜索下,是由这边生成的

function random(size){var str = "",arr = ['0', '1', '2', '3', '4', '5', '6', '7', '8', '9', 'a', 'b', 'c', 'd', 'e', 'f', 'g', 'h', 'i', 'j', 'k', 'l', 'm', 'n', 'o', 'p', 'q', 'r', 's', 't', 'u', 'v', 'w', 'x', 'y', 'z', 'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'I', 'J', 'K', 'L', 'M', 'N', 'O', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W', 'X', 'Y', 'Z'];for(var i=0; i<size; i++){str += arr[Math.round(Math.random() * (arr.length-1))];}return str;}

以上所有参数都基本上有逻辑能够写出来了,但是得到这些参数成功请求后,网站的作者还设置了一道坎,就是他会返回两个值,一个result,一个secretkey(还真是秘密钥匙),将这两个参数再进行一次DES3解码就能得到json数据了。其实整体看下来,没有以前难,甚至还有那么一丢丢小简单,下面就贴下代码,大家参考就好。

# coding=utf-8
import requests
import time
import execjs
import base64
import json
from pprint import pprint
from Cryptodome.Cipher import DES3
from Cryptodome.Util.Padding import unpad, pad
"""
2019年9月份文书网spider更新,简单看了下文书网更新过后的加密方式,整体比以前简单不少,
总结起来大概就是ciphertext这个参数是变化的,其他的基本上不会改变,传入data获取数据后,会有一个
DES3解密,其他的好像没什么难点(有可能没遇到坑),就大概写个逻辑脚本,需要完善
"""# ----------------------------------自定义函数-------------------------------------------# 获取ciphertext参数
def get_cipher():with open ("c:\\Users\\包子xia\\Desktop\\file\\cipher.js",encoding='utf-8') as f:js = f.read()ctx =execjs.compile(js)cipher = ctx.call("cipher")return cipher# 获取DES解密后的返回值
def get_result(result,secretKey,date):des3 = DES3.new(key=secretKey.encode(), mode=DES3.MODE_CBC, iv=date.encode())decrypted_data = des3.decrypt(base64.b64decode(result))plain_text = unpad(decrypted_data, DES3.block_size).decode()return plain_text# 获取__RequestVerificationToken参数
def get_token():js = """ function random(size){var str = "",arr = ['0', '1', '2', '3', '4', '5', '6', '7', '8', '9', 'a', 'b', 'c', 'd', 'e', 'f', 'g', 'h', 'i', 'j', 'k', 'l', 'm', 'n', 'o', 'p', 'q', 'r', 's', 't', 'u', 'v', 'w', 'x', 'y', 'z', 'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'I', 'J', 'K', 'L', 'M', 'N', 'O', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W', 'X', 'Y', 'Z'];for(var i=0; i<size; i++){str += arr[Math.round(Math.random() * (arr.length-1))];}return str;}"""ctx = execjs.compile(js)result = ctx.call("random", "24")return result# 获取pageid
def get_pageid():js = """function happy() {var guid = "";for (var i = 1; i <= 32; i++) {var n = Math.floor(Math.random() * 16.0).toString(16);guid += n;// if ((i == 8) || (i == 12) || (i == 16) || (i == 20)) guid +=// "-";}return guid;}"""ctx = execjs.compile(js)pageid = ctx.call("happy")return pageid#-------------------------------自定义函数结束-----------------------------------------class wenshu(object):def __init__(self):self.session = requests.Session()self.headers = {"Cookie":"SESSION=f25ce583-7609-43ba-bb12-a0f3cdb15515","Host":"wenshu.court.gov.cn","Origin":"http://wenshu.court.gov.cn","User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36",}def get_docid(self):"""文书列表页"""url = "http://wenshu.court.gov.cn/website/parse/rest.q4w"data = {"s8": "04","pageId": "%s" % get_pageid(),"sortFields": "s50:desc",  # 按照法院层级降序排列"ciphertext": "%s" % get_cipher(),"pageNum": "1","pageSize": "5","queryCondition": '[{"key":"s8","value":"04"}]',  # 这边可以自定义选择,04表示行政案件"cfg": "com.lawyee.judge.dc.parse.dto.SearchDataDsoDTO@queryDoc","__RequestVerificationToken": "%s" % get_token()}response = self.session.post(url, data=data,headers=self.headers)json_value = json.loads(response.text)secretKey = json_value["secretKey"]result = json_value["result"]data = json.loads(get_result(result, secretKey, time.strftime("%Y%m%d")))for key in data["queryResult"]["resultList"]:rowkey = key["rowkey"]self.detail_page(rowkey)def detail_page(self,docid):"""文书详情页"""url = "http://wenshu.court.gov.cn/website/parse/rest.q4w"data = {"docId": "%s" % docid,"ciphertext": get_cipher(),"cfg": "com.lawyee.judge.dc.parse.dto.SearchDataDsoDTO@docInfoSearch","__RequestVerificationToken": "%s" % get_token(),}response = self.session.post(url, data=data,headers=self.headers)json_value = json.loads(response.text)secretKey = json_value["secretKey"]result = json_value["result"]data = json.loads(get_result(result, secretKey, time.strftime("%Y%m%d")))pprint(data)if __name__ == '__main__':demo = wenshu()demo.get_docid()


上面有一个js文件,我是用pyexecjs执行的,就不贴出来。本项目也是自己出于兴趣,想解析下看看。也是希望大家对网站手下留情,速度慢一点,温柔一点,这样对大家都好。

在此声明,如需转载,请标注来源。本文章也是记录自己的技术实践,绝无破坏网站运行的想法,如若被他人用于商业用途,与本人无关。同时欢迎访问个人博客主页… …

裁判文书网2019年9月份最新爬虫相关推荐

  1. 裁判文书网 爬虫 升级最新版本0.7 更新时间2020-12-17

    接上一篇文件:裁判文书网 爬虫 最新更新2020-08-12  https://blog.csdn.net/myhot/article/details/108046389 本次升级主要已支持写入mys ...

  2. 爬虫修正:裁判文书网20200901更新增加登录系统

    爬虫修正:裁判文书网20200901更新增加登录系统 一.登录系统的增加 二.增加登录函数 三.一个比较纠结的地方 一.登录系统的增加 导致需要登录,直接是无法进入了.以往可以直接进入具体的类别如 现 ...

  3. python 爬虫 裁判文书网 19年4月更新版

    完整版代码github地址:https://github.com/Monster2848/caipanwenshu 爬虫主体逻辑: import re import time import pymon ...

  4. python爬取裁判文书并分析_裁判文书网爬虫攻克

    最近因为公司需要爬取裁判文书网的某一类别文章数据,于是简单研究了一下,发现网站数据全是js加载的,于是想都没想直接用selenium尝试爬取,没想到竟然有selenium都抓取不到的js(刚毕业的py ...

  5. 关于裁判文书网的一些建议

    关于裁判文书网的一些建议 有部分小伙伴私聊我一些文书网的东西.原因应该是我关于文书网批量下载的博文,写得太过简单.但我认为实现思路其实就这么简单,登录爬取,就没其他操作可言了.今天整理一下大概的问题. ...

  6. 爬取裁判文书网(一)

    1.裁判文书网地址 http://wenshu.court.gov.cn/ 2.网站分析 (1)网站类型是动态网站. (2)网页源代码中并没有我们想要的页面内容,且引用许多js代码. (3)查看列表页 ...

  7. 2021-04-01裁判文书网数据python爬虫更新下载

    长期持续更新数据 2020-11-08裁判文书网数据python爬虫更新下载添加链接描述 截至3月已从数据库中下载1亿1200万条裁判文书数据,有需要数据的伙伴可以(。・∀・)ノ゙嗨前台QQ7900- ...

  8. 2020-11-08裁判文书网数据python爬虫更新下载

    2020年9月1日更新 文书网2020年8月31日晚更新之后就需要手机注册验证登录了,所以,账号是个问题. 分析 1. 登录 比较简单哦,主要难题是多账号的登录及session的更新维护. 2.其它 ...

  9. 文书裁判文书网_使用上下文书签在上下文菜单中访问您的书签

    文书裁判文书网 Looking for an easy way to access your bookmarks from anywhere in your browser window instea ...

  10. Python爬虫Selenium手动接管Edge爬取裁判文书网“环境污染”数据(Mac环境)

    目标数据:爬取从2007年到2022年,各地级市中级法院历年关于"环境污染"的裁判文书数量. 由于裁判文书网需要登录,Selenium手动接管爬取可避免频繁登录造成的封号风险. S ...

最新文章

  1. mpVue配置sass全局变量
  2. sql中set命令解析
  3. Python爬百度图片并下载到本地实战
  4. boost::log::sinks::unlocked_sink用法的测试程序
  5. 一些比较少用但比较有用的linux命令备忘
  6. python模拟猫狗大战_tensorflow实现猫狗大战(分类算法)-阿里云开发者社区
  7. nginx一个端口配置多域名服务
  8. 结构型模式概述(Structural Pattern)
  9. 【转载】RESTful 架构风格概述
  10. bzoj_3529 数表
  11. html网页音乐手机播放,网页添加背景音乐代码,支持手机端的html5代码播放器
  12. FreeSSL.cn 创建免费 https 证书
  13. 蚂蚁金服校招一面有感
  14. 解决swift实现的websocket与后台通信问题:websocket is disconnected: masked and rev data is not currently supported
  15. 离线安装linux的gcc,nvidia等错误
  16. 关于SEO优化的建议
  17. 感受野-Receptive Field的理解
  18. 【渝粤教育】国家开放大学2018年秋季 8180-22T (1)畜禽生产概论 参考试题
  19. SpringCloud五大神兽之Eureka服务注册(三)——Eureka的自我保护
  20. 【数据库课设】机票预订系统 java+mysql实现 附源码

热门文章

  1. 平衡二叉树(AVL)
  2. 基于扩展卡尔曼滤波的多传感器融合定位
  3. Chrome Edge与Safari书签同步
  4. java基于POI批量插入图片到word
  5. linux构建lamp的关键步骤,Linux-LAMP平台搭建详解
  6. 各国市场分析(荷兰)
  7. 截止失真放大电路_每周经典电路分析:一个经典实际运放的内部电路分析(1)
  8. 【清华大学】操作系统 陈渝——Part5 虚拟存储概念
  9. Java验证图片格式
  10. Python爬虫分析,全国结婚率连续5年下降,这届年轻人,为什么不敢结婚?