前言:

​ 一切不经过项目验证的代码都是耍流氓,今天我们就通过一个简单的招聘网站的数据归档进行当前热门岗位的大数据分析,最后以wordcloud进行显示。本文为数据爬取篇

项目准备:

​ 这次我们来比较完整的抓取拉勾网上面“Python”相关招聘信息以及招聘要求详情。

​ 能联网的电脑、搭建好Python3以上环境,如果环境没有配置,可以参考我原来的文章 环境安装及软件下载地址。IDE这次我们采用Jupyter Notebook ,采集我们使用selenium+pyquery,为什么用这个? 说起来都是泪,文末我再解释。数据分析使用pandas。

分析页面,寻找数据来源

打开拉勾网,搜索“Python”得到下面这个页面。最近疫情我被关在武汉了,我就以武汉站为目的地好了。
共30页,每页展示15个职位[职位(368)]。

通过selenium采集比request采集的效率要低许多,因为是模拟浏览器方式进行抓取,所以每次都要对页面进行渲染。但是同样也有个好处,就是不用在意header和cookie问题。废话不多说,直接开始操作

按照以前我们的方法,在Notebook中新建Python 3文件:

引入各种模块:

import pyquery as pq
from selenium import webdriver
import pandas as pd
import time
import os

初始化一个浏览器:

driver = webdriver.Firefox()
driver.implicitly_wait(5)
driver.get("https://www.lagou.com/")

在打开的页面中,进行处理拉勾网的登陆状态

while True:i = input("已登陆成功请输入“OK”:")if i == 'OK':breakelif i == 'quit':print("取消执行,关闭!")os._exit(1)

登陆成功后,在命令行输入窗输入“OK”,会进入下一步执行。

进入列表采集:

print("开始执行采集")
data = []
driver.get("https://www.lagou.com/jobs/list_Python/p-city_184?&cl=false&fromSearch=true&labelWords=&suginput=")
while True:but_class = driver.find_element_by_css_selector(".pager_next").get_attribute('class')if but_class == 'pager_next ':driver.find_element_by_xpath("//span[@action='next']").click()items = pq.PyQuery(driver.page_source).find(".con_list_item")data += getPosition(items)time.sleep(2)else:print('列表采集结束')break

我们单独定义了一个采集方法,getPosition 这个方法接收一个pyquery的对象。

方法代码如下:

def getPosition(items):datalist=[]for item in items.items():temp = dict()temp['职位ID']= item.attr('data-positionid')temp['职位名']= item.attr('data-positionname')temp['薪资范围']= item.attr('data-salary')temp['公司ID']= item.attr('data-companyid')temp['公司名']= item.attr('data-company')temp['职位链接']=pq.PyQuery(item).find(".position_link").attr("href")temp['发布时间']=pq.PyQuery(item).find(".format-time").text()temp['猎头名称']=pq.PyQuery(item).find(".hr_name").text()temp['猎头ID']=pq.PyQuery(item).find(".target_hr").text()temp['工作经验']=pq.PyQuery(item).find(".p_bot>.li_b_l").remove(".money").text()temp['公司主页']=pq.PyQuery(item).find(".company_name>a").attr('href')temp['公司描述']=pq.PyQuery(item).find(".industry").text()temp['岗位亮点']=pq.PyQuery(item).find(".li_b_r").text()datalist.append(temp)return datalist

到这里,主要列表的采集和整理工作就结束了,我们把采集到的数据整合到pandas中,并保存到csv文件,以方便后面使用。

csv = pd.DataFrame(data)
csv.to_csv("lagou.csv")

截图为保存的DataFrame。可以看到,我们保存了二级页名,和公司相关的信息。

一共采集了368条数据。这个时候,我们开始进行第二步详情数据的完善采集。

我们先查看一个二级页面,看一下数据格式

在网页里面点击任意一个职位进入查看详情,例如https://www.lagou.com/jobs/4263258.html

参照我们最开始的方法可以发现,我们需要的信息就在右键html网页源代码里面,就在一个class='job_bt'的dd标签里面:

我这里使用pyquery 来处理html内容:(记得在代码同级建立data文件位)

text =pq.PyQuery(driver.page_source).find(".job-detail").text()
with open("./data/%s.txt" %row[1],"w+") as f:f.write(text)

如果对JQuery熟悉的同学一定可以看出来,PyQuery的选择器实在是简单。。

最后别忘了测试一下存储的数据是否正确:

彩蛋:

​ 最开始写这个文章时,我是打算使用request进行数据采集的,在代码实现的时候发现一个问题,拉勾网的防爬做得还是挺不错,在采集列表页面时,同一header的使用一旦超过5次就被判定为爬虫。在这个坑上足足花了二个小时。虽然这个坑大概是什么原因,但是我实现在是太困,不想再花时间处理。(页面的COOKIE是经过页面Js调用生成的)如果以后有精力再说吧。

总结

  • 先分析页面,知道数据从哪里来、什么格式?(网页源代码html?Network面板的xhr请求到的json数据?),本项目使用的selenium,所以只用处理页面数据。
  • 根据数据来源格式确定使用解析方式
  • 处理防爬机制
  • 利用def定义不同的函数处理单独的请求可以让代码更清晰
  • 把获取的内容存储到文件(简单横竖列表数据存.csv),注意要转为字符串存储,注意文件名要唯一。
  • 尽可能在必要的位置合理的使用time.sleep(1)延缓一下,特别是防爬高的站点,一定要加上
  • 代码要一点点测试,Jupyter Notebook是一个神器。

作者相关:

博客、新浪微博、简书

本系列教程及源码地址:点击访问

最后:如果你正在学习Python的路上,或者准备打算学习Python、明哥会陪着你陪你一起共同进步!

手打不易,有用的话,请记得关注转发。

Python项目实战:使用selenium爬取拉勾网数据相关推荐

  1. python用selenium爬取网页数据_Python项目实战:使用selenium爬取拉勾网数据

    " 一切不经过项目验证的代码都是耍流氓,今天我们就通过一个简单的招聘网站的数据归档进行当前热门岗位的大数据分析,最后以wordcloud进行显示.本文为数据爬取篇." 项目准备: ...

  2. Python爬虫实战:selenium爬取电商平台商品数据

    前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者: 极客挖掘机 PS:如有需要Python学习资料的小伙伴可以加点击下 ...

  3. selenium爬取拉勾网

    文章目录 1 安装selenium和webdriver 1.1 自动控制浏览器 2 正式爬取拉勾网 2.1控制浏览器,进入拉勾网 2.2爬取所需内容 2.2.1解析提取信息 2.2.2 翻页爬取 3 ...

  4. python爬虫——使用selenium爬取微博数据(一)

    python爬虫--使用selenium爬取微博数据(二) 写在前面 之前因为在组里做和nlp相关的项目,需要自己构建数据集,采用selenium爬取了几十万条微博数据,学习了很多,想在这里分享一下如 ...

  5. Python爬虫实战一之爬取糗事百科段子

    点我进入原文 另外, 中间遇到两个问题: 1. ascii codec can't decode byte 0xe8 in position 0:ordinal not in range(128) 解 ...

  6. Python集成scrapy和selenium爬取苏宁图书

    Python集成scrapy和selenium爬取苏宁图书 环境:python3.6 pycharm2018.1.3 前言 本人渣渣一枚,为爬虫苏宁图书获取数据,将获得的数据保存在MangoDB中,现 ...

  7. 转 Python爬虫实战一之爬取糗事百科段子

    静觅 » Python爬虫实战一之爬取糗事百科段子 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来. 友情提示 糗事百科在前一段时间进行了改版,导致 ...

  8. 《python爬虫实战》:爬取贴吧上的帖子

    <python爬虫实战>:爬取贴吧上的帖子 经过前面两篇例子的练习,自己也对爬虫有了一定的经验. 由于目前还没有利用BeautifulSoup库,因此关于爬虫的难点还是正则表达式的书写. ...

  9. python爬虫实战之多线程爬取前程无忧简历

    python爬虫实战之多线程爬取前程无忧简历 import requests import re import threading import time from queue import Queu ...

  10. python爬虫实战之异步爬取数据

    python爬虫实战之异步爬取数据 文章目录 前言 一.需求 二.使用步骤 1.思路 2.引入库 3.代码如下 总结 前言 python中异步编程的主要三种方法:回调函数.生成器函数.线程大法. 以进 ...

最新文章

  1. mysql从当前月向前推12_JavaScript获取当前时间向前推三个月的方法示例
  2. 深度学习——训练时碰到的超参数
  3. windows server 2008下搭建DHCP服务器
  4. 2021年机器学习什么风向?谷歌大神Quoc Le:把注意力放在MLP上
  5. 快速排序 C++代码实现及其算法思想及时间复杂度分析及优化 恋上数据结构笔记
  6. python random.seed()函数 (生成固定随机数)random.seed(None)(取消固定随机数种子)
  7. StringUtils的isBlank与isEmply
  8. 简单的html渲染模板引擎
  9. python和log有啥区别_细说 Python logging
  10. 200万存银行理财,年利率5%,未来30年够养老了吗?
  11. C++运算符与类型转换
  12. linux内核下载 编译
  13. mysql删除盘点表,用友U8数据库表名参照表修改号参考.doc
  14. CentOS Linux 7.9 (2009) 发布
  15. 手把手教你怎么给客群分级(上)
  16. Android Spinner 设置setOnItemSelectedListener时,竟会默认触发一次事件!
  17. 【转载】Jquery中的$命名冲突的解决方案
  18. 安卓游戏广告加速插件_游戏加速器(强烈推荐!)[PC+安卓]
  19. rar和zip文件加密的破解
  20. ppm\℃是什么意思/

热门文章

  1. 浙江工业大学2020考研经验分享
  2. Substance Painter TDR issue TDR问题
  3. TDR/TDT测量原理分析
  4. FBReader工程结构解析
  5. Linux的capability分析
  6. 制造商朝DOE LED功效目标迈进稳步前进
  7. Infor Framework Task Man 服务无法启动
  8. MacBook Air下载easyconnect软件后双击打不开后发生的问题
  9. SOME/IP与DDS对比及DDS测试策略和方案探讨
  10. .NET Core使用NPOI导出复杂,美观的Excel详解