Python爬虫实现网页自动刷票

  • 获取目标目标 本人此除随机选定目标为1号

目标网站 投票地址
该活动是一个由网页设置的投票活动,所以在编写代码的时候会特别轻松,没有微信投票那样麻烦(open_id),API索取等一系列操作。

获取目标目标 本人此除随机选定目标为1号

目标投票页面投票页面 并通过本人ip地址等 进行投票 截取其提交数据

这里咋们用BurpSite进行数据截取

可以看出,此次提交请求目标为 Request URL: http://www.pandafoundation.com/e/public/digg/?classid=391&id=6849&dotop=1&doajax=1&ajaxarea=diggnum GET请求 并不是传统的POST形式,GET模式相对来说就是单纯的一次请求,这里我改了一次 浏览器的UA标识,再次提交,发现已经提交过了。

利用python Requests模块进行Get,打印其状态码,以及cookie信息,发现,该网站服务器有安装云锁。

yunsuo_session_verify=fd89a583829a5a3c2ede67e0d5a8b3ed

多次提交发现,cookie都是一样,说明是验证cookie的手段来判断同一用户

具体代码如下

import requests
import urllib
from fake_useragent import UserAgent
from urllib import request
from http import cookiejar
f=open("ip.txt","r")while True:for i in f:print("当前为"+i.strip())try:proxy = i.strip();print(proxy)proxies = {'http': 'http://' + proxy,}url = "http://www.pandafoundation.com/e/public/digg/?classid=391&id=6849&dotop=1&doajax=1&ajaxarea=diggnum"ua = UserAgent()headers = {'User-Agent': ua.random}r = requests.get(url=url, headers=headers, timeout=3,proxies=proxies)print(r.text)print(r.cookies)except :print("连接错误")

通过requests 模块进行GET请求会比urrlib模块简单很多

使用方法如下

r = requests.get(url="目标网址", headers="请求头", timeout=3,proxies="ip池")

通过while方法循环使用f文件打开模式,使用strip()函数 可以实现循环遍历ip.txt文件内容。

from fake_useragent import UserAgent

模块为随机生成UA标识

 ua = UserAgent()headers = {'User-Agent': ua.random}

运行结果

Python爬虫实现网页自动刷票相关推荐

  1. Python爬虫: 单网页 所有静态网页 动态网页爬取

    Python爬虫: 单网页 所有静态网页 动态网页爬取 前言:所有页代码主干均来自网上!!!感谢大佬们. 其实我对爬虫还挺感兴趣的,因为我玩instagram(需要科学上网),上过IG的人都知道IG虽 ...

  2. python爬虫解决网页重定向问题

    python爬虫解决网页重定向问题 参考文章: (1)python爬虫解决网页重定向问题 (2)https://www.cnblogs.com/zhumengke/articles/9618368.h ...

  3. python Chrome + selenium自动化测试与python爬虫获取网页数据

    一.使用Python+selenium+Chrome 报错: selenium.common.exceptions.SessionNotCreatedException: Message: sessi ...

  4. Python爬虫获取网页编码格式

    Python爬虫获取网页编码格式 网页编码格式是每个网页规定的本页面文字的编码方式,其中比较流行的是ascii, gbk, utf-8, iso等.观察许多网页的编码格式都是在meta标签的conte ...

  5. [Python爬虫] Selenium实现自动登录163邮箱和Locating Elements介绍

    前三篇文章介绍了安装过程和通过Selenium实现访问Firefox浏览器并自动搜索"Eastmount"关键字及截图的功能.而这篇文章主要简单介绍如何实现自动登录163邮箱,同时 ...

  6. Python爬虫解析网页的4种方式 值得收藏

    用Python写爬虫工具在现在是一种司空见惯的事情,每个人都希望能够写一段程序去互联网上扒一点资料下来,用于数据分析或者干点别的事情. 我们知道,爬虫的原理无非是把目标网址的内容下载下来存储到内存中, ...

  7. Python爬虫 Selenium实现自动登录163邮箱和Locating Elements介绍

    Python爬虫视频教程零基础小白到scrapy爬虫高手-轻松入门 https://item.taobao.com/item.htm?spm=a1z38n.10677092.0.0.482434a6E ...

  8. Python爬虫之网页采集器

    文章目录 前言 一.爬虫是什么? 二.使用步骤 1.引入库 2.简单的页面爬取的四步流程 1.获取url 2.向url发送请求,并获取响应(需要http协议) 3.如果从响应中提取url,则继续发送请 ...

  9. 快速入门!Python爬虫,京东自动登录,在线抢购商品!

    话不多少,今天教大家如何用Python爬虫,自动登录京东网站,查询商品库存,价格,显示购物车详情等.可以指定抢购商品,自动购买下单,然后手动去京东付款就行. 运行环境 Python 2.7 第三方库 ...

  10. python爬虫新闻网页的浏览量转载量,Python爬取新闻网标题、日期、点击量

    最近接触Python爬虫,以爬取学校新闻网新闻标题.日期.点击量为例,记录一下工作进度 目前,感觉Python爬虫的过程无非两步: Step1.获取网页url(利用Python库函数import ur ...

最新文章

  1. 链表问题8——将单向链表按某值划分成左边小、中间相等、右边大的形式(进阶)
  2. 去掉警告:PerformSelector may cause a leak because its
  3. tcp三次握手四次挥手(及原因)详解
  4. Charles 抓包 从入门到精通
  5. 为什么kill进程后socket一直处于FIN_WAIT_1状态
  6. tcs标准编写软件_【公益培训】知你所需 | 标准编写格式及TCS模板应用线上公益培训...
  7. Linux: Shell编程基础
  8. c语言4x4矩形列互换,线反转法4x4键盘C语言程序问题.急...
  9. SQL Server 2005 中行号的显示,分页
  10. 智能优化算法:闪电连接过程算法 - 附代码
  11. linux网络编程 mingw,Windows网络编程
  12. cloudflare-5s盾分析
  13. 【Redis】2. 入门篇
  14. ffmpeg教程 php推流,详解NODEJS基于FFMPEG视频推流测试
  15. PMP|项目经理如何做好相关方管理?
  16. 【Tool】资料搜索:百度网盘资料检索
  17. Promise晋级—完全吃透
  18. OSChina 娱乐弹弹弹——程序猿眼中的女人
  19. 4. hda设备中的pcm文件(第二部分)
  20. Spark 列转行操作

热门文章

  1. 25种提高网页加载速度的方法和技巧
  2. web前端总结---day01
  3. iOS程序上架到appStore/已上线软件升级更新教程
  4. jsbeautify格式化html属性分行展示
  5. 使用 teredo 穿透NAT访问 ipv6
  6. 蓝牙无线自制串口模块连接穿越机配置工具
  7. form表单回车会自动提交
  8. 黑客教父龚蔚:扫码应用要警惕 公共WiFi攻不破支付软件
  9. 解读|风控模型的客观认识与深入理解
  10. OpenGL ES EAGLContext 和 EGLContext