python个人简历参考,python爬虫-1w+套个人简历模板爬取
import requests #
发送请求
from lxml import etree #
数据解析
import time #
线程暂停,怕封
ip
import os #
创建文件夹
#
由于目标网站更新了反爬虫机制,简单的
UA
伪装不能满足我们的需求,所有对整个消息头进行了伪装
headers = {
'Accept':
'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Accept-Encoding':
'gzip, deflate, br',
'Accept-Language':
'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
'Cache-Control':
'max-age=0',
'Connection':
'keep-alive',
'Cookie':
'__gads=undefined; Hm_lvt_aecc9715b0f5d5f7f34fba48a3c511d6=1614145919,1614755756; ' 'UM_distinctid=177d2981b251cd-05097031e2a0a08-4c3f217f-144000-177d2981b2669b; '
'sctj_uid=ccf8a73d-036c-78e4-6b1d-6035e961b0d3; '
'CNZZDATA300636=cnzz_eid%3D1737029801-1614143206-%26ntime%3D1614759211; ' 'Hm_lvt_398913ed58c9e7dfe9695953fb7b6799=1614145927,1614755489,1614755737; ' '__gads=ID=af6dc030f3c0029f-226abe1136c600e4:T=1614760491:RT=1614760491:S=ALNI_MZAA0rXz7uNmNn6qnuj5BPP7heStw; '
'ASP.NET_SessionId=3qd454mfnwsqufegavxl5lbm; Hm_lpvt_398913ed58c9e7dfe9695953fb7b6799=1614760490; '
'bbsmax_user=ce24ea68-9f80-42e3-8d4f-53b13b13c719; avatarId=a034b11b-abc9-4bfd-a8b2-bdf7fef644bc-; '
'Hm_lpvt_aecc9715b0f5d5f7f34fba48a3c511d6=1614756087',
'Host':
'sc.chinaz.com',
'If-None-Match':
'',
'Referer':
'
'Upgrade-Insecure-Requests':
'1',
'User-Agent':
'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:86.0) Gecko/20100101 Firefox/86.0',
}
#
如果该文件夹不存在
,
则创建文件夹
if not os.path.exists('./moban'):
os.mkdir('./moban')
for i in range(1, 701): #
预计可爬
700*20
套简历模板
print(f"
正准备爬取第
{i}
页简历模板
")
print("
怕封
ip
,操作暂停中
......") #
操作暂停提示语
time.sleep(15) # 跟单网
每获取一个列表页暂停
15s
,一个列表页有
20
分简历模板的链接
url = f'{str(i)}.html' #
设置相应的路由
i
try: #
异常处理
response = requests.get(url=url, headers=headers) #
获取响应
except Exception as e: #
给异常取名为
e
print(e) #
打印异常名称
print('
连接失败,选择跳过!!!
') #
连不上就不要连了,头铁容易出事
print("
怕封
ip
,获取列表页操作暂停中
......") #
操作暂停提示语
time.sleep(5) #
每出现一次异常暂停
5s
continue #
跳过本次循环
response.encoding = 'utf-8' #
中文编码为
utf-8
page = response.text #
获取响应的文本数据
tree = etree.HTML(page) #
用
etree
进行数据解析
a_list = tree.xpath("//div[@class='box col3 ws_block']/a") #
用
xpath
提取目标内容形成
20
份一起的列表
for a in a_list:
resume_href = 'https:' + a.xpath('./@href')[0] #
根据爬取的链接设置新的网页
resume_name = a.xpath('./img/@alt')[0] #
爬取名字,并对列表进行切片取第一个
resume_name = resume_name.strip() #
去掉首尾的空格
try:
resume_response = requests.get(url=resume_href, headers=headers) #
进入简历模板详情页面
except Exception as e:
print(e)
print('
连接失败,选择跳过!!!
')
print("
怕封
ip
,获取个人简历详情页操作暂停中
......")
time.sleep(5)
continue
resume_response.encoding = 'utf-8' #
中文编码为
utf-8
resume_page = resume_response.text #
获取响应的文本数据
resume_tree = etree.HTML(resume_page) #
用
etree
进行数据解析
resume_link = resume_tree.xpath('//ul[@class="clearfix"]/li/a/@href')[0] #
用
xpath
提取目标内容的下载链接
try:
download = requests.get(url=resume_link, headers=headers).content #
获取二进制数据
except Exception as e:
print(e)
print('
连接失败,选择跳过!!!
')
print("
怕封
ip
,下载个人简历操作暂停中
......")
time.sleep(5)
continue
download_path = './moban/' + resume_name + '.rar' #
设置保存路径以及文件名称
with open(download_path, 'wb') as fp: #
设置文件制作,以二进制形式
fp.write(download) #
保存文件
print(resume_name, '
下载成功!!!
') #
下载成功提示语
python个人简历参考,python爬虫-1w+套个人简历模板爬取相关推荐
- 以下用于数据存储领域的python第三方库是-Python3爬虫学习之MySQL数据库存储爬取的信息详解...
本文实例讲述了Python3爬虫学习之MySQL数据库存储爬取的信息.分享给大家供大家参考,具体如下: 数据库存储爬取的信息(MySQL) 爬取到的数据为了更好地进行分析利用,而之前将爬取得数据存放在 ...
- 知乎python练手的_Python—爬虫之初级实战项目:爬取知乎任一作者的文章练手
爬虫之初级实战项目:爬取知乎任一作者的文章练手 在正式上代码之前,先过一遍之前所学知识的框架内容,温故而知新!!! 接下来我们直接上代码,一定要手敲代码.手敲代码.手敲代码!!! import req ...
- python爬虫多久能学会-不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据...
原标题:不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据 Python爬虫为什么受欢迎 如果你仔细观察,就不难发现,懂爬虫.学习爬虫的人越来越多,一方面,互联网可以获取的数据越来越多,另一方 ...
- python 扒数据_不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据
Python爬虫为什么受欢迎 如果你仔细观察,就不难发现,懂爬虫.学习爬虫的人越来越多,一方面,互联网可以获取的数据越来越多,另一方面,像 Python这样的编程语言提供越来越多的优秀工具,让爬虫变得 ...
- python游戏辅助lol_Python爬虫实战,60行代码爬取英雄联盟全英雄全皮肤,找寻曾今那些被删除的绝版皮肤...
学了一周多的爬虫课后终于按捺不住了,小编决定自己手动编写爬虫程序,刚好LJ在鼓励学员分享成果,优秀作品有奖励,就把自己用Python编程爬取各大游戏高清壁纸的过程整理了出来进行投稿,与大家一起分享. ...
- Python网络爬虫数据采集实战:Scrapy框架爬取QQ音乐存入MongoDB
通过前七章的学习,相信大家对整个爬虫有了一个比较全貌的了解 ,其中分别涉及四个案例:静态网页爬取.动态Ajax网页爬取.Selenium浏览器模拟爬取和Fillder今日头条app爬取,基本 ...
- Python爬虫-CSDN博客排行榜数据爬取
文章目录 前言 网络爬虫 搜索引擎 爬虫应用 谨防违法 爬虫实战 网页分析 编写代码 运行效果 反爬技术 前言 开始接触 CTF 网络安全比赛发现不会写 Python 脚本的话简直寸步难行--故丢弃 ...
- Python爬虫系列(二):爬取中国大学排名丁香园-用户名和回复内容淘宝品比价
Python爬虫系列(二):爬取中国大学排名&丁香园-用户名和回复内容&淘宝品比价 目录 Python爬虫系列(二):爬取中国大学排名&丁香园-用户名和回复内容&淘宝品 ...
- python爬虫入门实战---------一周天气预报爬取_Python爬虫入门实战--------一周天气预报爬取【转载】【没有分析...
Python爬虫入门实战--------一周天气预报爬取[转载][没有分析 Python爬虫入门实战--------一周天气预报爬取[转载][没有分析] 来源:https://blog.csdn.ne ...
- Python爬虫:用最普通的方法爬取ts文件并合成为mp4格式
介绍: 在自学爬虫时,一开始就是爬取一些文字(比如小说之类的),再后来变成了图片,再后来变成了视频- 其中最简单的就是对文字的爬取了,从文字过渡到图片也只是多了几行代码而已,但是: 从图片过渡到视频就 ...
最新文章
- MqSql的加锁分析
- 自建fasttext类历险记
- MatConvnet工具箱文档翻译理解(4)
- 【云上技术】中大型规模企业如何部署多数据中心?
- Eclipse从SVN恢复本地误删除已删除的文件和代码
- linux下编译的PHP添加soap扩展
- 【转】C# WebAPI中为自定义模型设置JSonConverter
- 税控盘抄报税显示服务器为空,税控盘显示离线是什么原因造成的?怎么处理?...
- linux下查看当前shell方法。
- 关于function
- 知识图谱实现公安情报分析(人工智能系列)
- wps编号无法继续_wps自动编号取消不了
- NoteExpress的题录中文??问题
- Python40行代码爬取电影天堂的电影下载连接
- 使用Camera X遇到的坑_OnPause时没有释放相机导致回来时黑屏
- 万彩脑图大师教程 | 万彩脑图大师快捷键指南
- 2022IC秋招面经分享【海光·SOC设计工程师(上海)/紫光展锐(杭州)】
- Altium Designer软件导出原理图和PCB图的PDF形式
- h5根据手机尺寸调整字体大小
- 记唐晓芙---围城第一遍略读后记
热门文章
- PS利用切片工具将一张大图裁剪成多个子图像并导出
- thinkphp6获取字符串中的中文首字母
- python运算符用来计算集合并集的_Python 运算符中用来计算集合并集的是 _______ 。_学小易找答案...
- vue项目中Echarts两个图表之间连接两条线
- OAuth2.0的refresh token
- 怎样把亚马逊电子书转换成mobi或pdf
- springmvc GET POST 接受参数方式
- JVM-内存区域与OOM
- 通过get和post访问HTTP接口的方法
- 企业微信登录不了怎么办 企业微信无法登录的原因及解决方法