Python 爬虫自动访问点击刷CSDN博客文章阅读量
一段小代码,可以帮助自动刷CSDN阅读量,感兴趣的朋友可以复制代码,然后把自己博客文章的URL修改一下就可以了,两个都修改之后可以使用了,帮助那些有需要的人
# 导入需要用到的库
import requests
import lxml
import random
import time
from lxml import etree
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36"} # 可以通过抓包工具获取,模拟浏览器
proxy={'http':'109.197.188.12:8080'} # 代理的IP,也可以自己在网上找
while True:# 要刷的文章url1='https://blog.csdn.net/hubingzhong/article/details/81612271'url2='https://blog.csdn.net/hubingzhong/article/details/81587863'url3='https://blog.csdn.net/hubingzhong/article/details/81277232'url4='https://blog.csdn.net/hubingzhong/article/details/81277220'url5='https://blog.csdn.net/hubingzhong/article/details/81277190'url6='https://blog.csdn.net/hubingzhong/article/details/81277150'url7='https://blog.csdn.net/hubingzhong/article/details/82469986'Url=[url1,url2,url3,url4,url5,url6,url7]url=random.choice(Url) # 随机随机访问上面的文章print(url,"*"*30)time.sleep(0.6) # 设置访问的时间response=requests.get(url,headers=headers,proxies=proxy).content.decode('utf-8')mytree=lxml.etree.HTML(response)csdnlist=mytree.xpath('//div[@class="article-list"]/div')for i in csdnlist:try:iUrl=i.xpath('./h4/a/@href')[0]except:response = requests.get(url=iUrl, headers=headers, proxies=proxy).content.decode('utf-8')time.sleep(0.8)# 和上面一样的随机访问其他的文章urla = 'https://blog.csdn.net/hubingzhong/article/details/81277125'urlb = 'https://blog.csdn.net/hubingzhong/article/details/81277080'urlc = 'https://blog.csdn.net/hubingzhong/article/details/81211221'urld = 'https://blog.csdn.net/hubingzhong/article/details/81277131'URL = [urla, urlb, urlc, urld]urll = random.choice(URL)response1=requests.get(url=urll,headers=headers,proxies=proxy).content.decode('utf-8')# print(response1)# print(response)print(urll,"$"*30)print(iUrl,"@"*30)
Python 爬虫自动访问点击刷CSDN博客文章阅读量相关推荐
- CSDN博客文章阅读模式插件(附源码)
插件地址:https://greasyfork.org/zh-CN/scripts/380667-csdn%E5%8D%9A%E5%AE%A2%E9%98%85%E8%AF%BB%E6%A8%A1%E ...
- python刷阅读_简单的37行python爬虫刷CSDN博客阅读数
# -*- coding:utf-8 -*- # 利用爬虫刷CSDN博客阅读数 import requests from bs4 import BeautifulSoup # 解析源码 def Get ...
- Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片
Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片 其实没太大用,就是方便一些,因为现在各个平台之间的图片都不能共享,比如说在 CSDN 不能用简书的图片, ...
- Python爬虫获取文章的标题及你的博客的阅读量,评论量。所有数据写入本地记事本。最后输出你的总阅读量!
Python爬虫获取文章的标题及你的博客的阅读量,评论量.所有数据写入本地记事本.最后输出你的总阅读量!还可以进行筛选输出!比如阅读量大于1000,之类的! 完整代码在最后.依据阅读数量进行降序输出! ...
- python+shell 备份 CSDN 博客文章,CSDN博客备份工具
python+shell 备份 CSDN 博客文章,CSDN博客备份工具 在 csdn 写了几年的博客了.多少也积累了两三百篇博文,近日,想把自己的这些文章全部备份下来,于是开始寻找解决方案. 我找到 ...
- Node.js批量刷CSDN博客访问量
在我的系列文章Node.js文章中的Node.js爬虫技术中介绍了爬取我的博客文章列表. 在那里我们用到了request和cheerio.这里我只需要使用request就可以批量刷CSDN博客的访问量 ...
- C/C++ | Qt 实现爬虫功能,爬取CSDN博客文章
话不多说,先看程序运行截图: 注意: 本人没有看过爬虫相关的书籍,第一次写这种程序,这个程序是半屌子的,原理很简单,没有学习过爬虫的朋友,也可以写. 程序思路如下: 1.下载要爬网站的页面. 2.用正 ...
- 如何快速转载别人的CSDN博客文章并附带格式与图片
1.问题背景 最近在学习Git过程中想了解git reflog命令的高级用法与命令详解,于是找到了这几篇特别优秀的文章: [1]使用git reflog 命令来查看历史提交记录并使用提交记录恢复已经被 ...
- 解决CSDN博客文章 保存网页到本地后,页面显示不全的问题
更新:2018.3.29 问题 CSDN博客文章设置为新版皮肤("大白"),保存网页到本地后.打开离线保存的网页,会出现页面显示不全的问题.(或者,点击"展开阅读全文&q ...
最新文章
- wxPython 笔记(3)基本结构
- NASA宣布发现 “第2个地球”
- Android中处理崩溃异常 (转)
- 力荐iReaper/as a Weekend Systems Admin...为何我从来没用过GHOST?
- jenkins简介及docker部署
- php实现微信网页授权回调代理
- 怎么在档案写自己的计算机水平,关于个人档案怎么写范文
- tungsten replicator oracle,Tungsten Replicator 实验
- 拍牌神器是怎样炼成的(一)--- 键鼠模拟之WinAPI
- [蓝桥杯]分解质因数
- Silvaco TCAD仿真学习Lesson2——Athena仿真
- 半透明导航栏css代码,纯CSS实现的紫罗兰风格导航条效果代码
- 世界通用闹铃(闹钟铃声)铃声 世界通用闹铃(闹钟铃声)手机铃声...
- 2020新版软件自动化测试自学全套教程——中级程序员学习路线
- 支付宝app支付功能-服务端的实现-python3版
- 快手裁员30%,大部分年薪超100万!揭露职场真相:思考的深度,决定职场的高度...
- Vue项目流程7,交易页面,提交订单,支付页面,利用element UI 以及 QRCode 完成微信支付,弹出框按钮的相关工作,个人中心以及子路由我的订单
- Java八股文 v2.0
- 关于C++vector容器内使用reserve函数预留能否被覆盖的问题
- 2019.4.16 掌恒首页铺设练习
热门文章
- kettle实例(获取企业微信打卡数据并将数据入库)
- [Mark]The problems solutions of vmware vsphere
- ArcGIS,CC(Smart3D),ENVI....工作中常用软件的汉化包都在这,随你下载
- An element could not be located on the page using the given search parameters.
- cesium实现立体墙(垂直、水平)渐变泛光效果
- 年终奖没领到惨遭开除,Fabio机器人的苦逼之旅
- CGCS2000 平面坐标系转大地坐标系
- LeetCode - 441 - 排列硬币(arranging-coins)
- Day 5 E. Arranging The Sheep
- windows7在安装vc14的时候报错(0x80240017)