原标题:Python 爬虫实践:浅谈数据分析岗位

转自:法纳斯特

讲道理,pyspider确实是一款优秀的爬虫框架,我们可以利用它快速方便地实现一个页面的抓取。

不过带来便捷性的同时,也有它的局限性,复杂页面不好爬取。

在本次的数据爬取中,BOSS直聘是成功使用pyspider。但拉勾网却不行,因为拉勾网的数据是Ajax加载的。

拉勾网岗位数据请求的网址是不变的,改变的是表单数据,表单数据随着页数改变,请求方式为POST。这里没办法在pyspider里用循环遍历来获取每一页的数据。

也许是我对pyspider框架了解的不够,还达不到得心应手。所以最后拉勾网的爬取,采用平常的办法,在PyCharm中自行编写程序。

本次通过对BOSS直聘,拉勾网数据分析岗数据分析,了解数据分析岗的行业情况,也以此来了解从事数据分析所需要的技能。

/ 01 / 网页分析

获取BOSS直聘索引页信息,主要是岗位名称、薪资、地点、工作年限、学历要求,公司名称、类型、状态、规模。

本来一开始是想对详情页分析的,还可以获取详情页里的工作内容和工作技能需求。

然后由于请求太多,就放弃了。索引页有10页,1页有30个岗位,一个详情页就需要一个请求,算起来一共有300个请求。

我是到了第2页(60个请求),就出现了访问过于频繁的警告。

而只获取索引页信息的话,只有10个请求,基本上没什么问题,外加也不想去鼓捣代理IP,所以来点简单的。

到时候做数据挖掘岗位的数据时,看看放慢时间能否获取成功。

获取拉勾网索引页信息,主要是岗位名称、地点、薪资、工作年限、学历要求,公司名称、类型、状态、规模,工作技能,工作福利。

网页为Ajax请求,采用PyCharm编写代码,轻车熟路。

/ 02 / 数据获取

01 pyspider获取BOSS直聘数据

pyspider的安装很简单,直接在命令行pip3 install pyspider即可。

这里因为之前没有安装pyspider对接的PhantomJS(处理Java渲染的页面)。

所以需要从网站下载下来它的exe文件,将其放入Python的exe文件所在的文件夹下。

最后在命令行输入pyspider all,即可运行pyspider。

在浏览器打开网址http://localhost:5000/,创建项目,添加项目名称,输入请求网址,得到如下图。

最后在pyspider的脚本编辑器里编写代码,结合左边的反馈情况,对代码加以改正。

脚本编辑器具体代码如下。

#!/usr/bin/env python

# -*- encoding: utf-8 -*-

# Project: BOSS

frompyspider.libs.base_handler import*

importpymysql

importrandom

importtime

importre

count = 0

classHandler(BaseHandler):

# 添加请求头,否则出现403报错

crawl_config = {'headers': {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}}

def__init__(self):

# 连接数据库

self.db = pymysql.connect(host='127.0.0.1', user='root', password='774110919', port=3306, db='boss_job', charset='utf8mb4')

defadd_Mysql(self, id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people):

# 将数据写入数据库中

try:

cursor = self.db.cursor()

sql = 'insert into job(id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people) values ("%d", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s")'% (id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people);

print(sql)

cursor.execute(sql)

print(cursor.lastrowid)

self.db.commit()

exceptException ase:

print(e)

self.db.rollback()

@every(minutes=24* 60)

defon_start(self):

# 因为pyspider默认是HTTP请求,对于HTTPS(加密)请求,需要添加validate_cert=False,否则599/SSL报错

self.crawl('https://www.zhipin.com/job_detail/?query=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&scity=100010000&industry=&position=', callback=self.index_page, validate_cert=False)

@config(age=10* 24* 60* 60)

defindex_page(self, response):

time.sleep(random.randint(2, 5))

fori inresponse.doc('li > div').items():

# 设置全局变量

globalcount

count += 1

# 岗位名称

job_title = i('.job-title').text()

print(job_title)

# 岗位薪水

job_salary = i('.red').text()

print(job_salary)

# 岗位地点

city_result = re.search('(.*?) p').html())

job_city = city_result.group(1).split(' ')[0]

print(job_city)

# 岗位经验

experience_result = re.search('(.*?)', i('.info-primary > p').html())

job_experience = experience_result.group(1)

print(job_experience)

# 岗位学历

job_education = i('.info-primary > p').text().replace(' ', '').replace(city_result.group(1).replace(' ', ''), '').replace(experience_result.group(1).replace(' ', ''),'')

print(job_education)

# 公司名称

company_name = i('.info-company a').text()

print(company_name)

# 公司类型

company_type_result = re.search('(.*?)

company_type = company_type_result.group(1)

print(company_type)

# 公司状态

company_status_result = re.search('(.*?)', i('.info-company p').html())

ifcompany_status_result:

company_status = company_status_result.group(1)

else:

company_status = '无信息'

print(company_status)

# 公司规模

company_people = i('.info-company p').text().replace(company_type, '').replace(company_status,'')

print(company_people + 'n')

# 写入数据库中

self.add_Mysql(count, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people)

# 获取下一页信息

next = response.doc('.next').attr.href

ifnext != 'java:;':

self.crawl(next, callback=self.index_page, validate_cert=False)

else:

print("The Work is Done")

# 详情页信息获取,由于访问次数有限制,不使用

#for each in response.doc('.name > a').items():

#url = each.attr.href

#self.crawl(each.attr.href, callback=self.detail_page, validate_cert=False)

@config(priority=2)

defdetail_page(self, response):

# 详情页信息获取,由于访问次数有限制,不使用

message_job = response.doc('div > .info-primary > p').text()

city_result = re.findall('城市:(.*?)经验', message_job)

experience_result = re.findall('经验:(.*?)学历', message_job)

education_result = re.findall('学历:(.*)', message_job)

message_company = response.doc('.info-company > p').text().replace(response.doc('.info-company > p > a').text(),'')

status_result = re.findall('(.*?)d', message_company.split(' ')[0])

people_result = message_company.split(' ')[0].replace(status_result[0], '')

return{

"job_title": response.doc('h1').text(),

"job_salary": response.doc('.info-primary .badge').text(),

"job_city": city_result[0],

"job_experience": experience_result[0],

"job_education": education_result[0],

"job_skills": response.doc('.info-primary > .job-tags > span').text(),

"job_detail": response.doc('div').filter('.text').eq(0).text().replace('n', ''),

"company_name": response.doc('.info-company > .name > a').text(),

"company_status": status_result[0],

"company_people": people_result,

"company_type": response.doc('.info-company > p > a').text(),

}

获取BOSS直聘数据分析岗数据如下。

02 PyCharm获取拉勾网数据

importrequests

importpymysql

importrandom

importtime

importjson

count = 0

# 设置请求网址及请求头参数

url = 'https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false'

headers = {

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36',

'Cookie': '你的Cookie值',

'Accept': 'application/json, text/java, */*; q=0.01',

'Connection': 'keep-alive',

'Host': 'www.lagou.com',

'Origin': 'https://www.lagou.com',

'Referer': 'ttps://www.lagou.com/jobs/list_%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90?labelWords=sug&fromSearch=true&suginput=shuju'

}

# 连接数据库

db = pymysql.connect(host='127.0.0.1', user='root', password='774110919', port=3306, db='lagou_job', charset='utf8mb4')

defadd_Mysql(id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare):

# 将数据写入数据库中

try:

cursor = db.cursor()

sql = 'insert into job(id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare) values ("%d", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s", "%s")'% (id, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare);

print(sql)

cursor.execute(sql)

print(cursor.lastrowid)

db.commit()

exceptException ase:

print(e)

db.rollback()

defget_message():

fori inrange(1, 31):

print('第'+ str(i) + '页')

time.sleep(random.randint(10, 20))

data = {

'first': 'false',

'pn': i,

'kd': '数据分析'

}

response = requests.post(url=url, data=data, headers=headers)

result = json.loads(response.text)

job_messages = result['content']['positionResult']['result']

forjob injob_messages:

globalcount

count += 1

# 岗位名称

job_title = job['positionName']

print(job_title)

# 岗位薪水

job_salary = job['salary']

print(job_salary)

# 岗位地点

job_city = job['city']

print(job_city)

# 岗位经验

job_experience = job['workYear']

print(job_experience)

# 岗位学历

job_education = job['education']

print(job_education)

# 公司名称

company_name = job['companyShortName']

print(company_name)

# 公司类型

company_type = job['industryField']

print(company_type)

# 公司状态

company_status = job['financeStage']

print(company_status)

# 公司规模

company_people = job['companySize']

print(company_people)

# 工作技能

iflen(job['positionLables']) > 0:

job_tips = ','.join(job['positionLables'])

else:

job_tips = 'None'

print(job_tips)

# 工作福利

job_welfare = job['positionAdvantage']

print(job_welfare + 'nn')

# 写入数据库

add_Mysql(count, job_title, job_salary, job_city, job_experience, job_education, company_name, company_type, company_status, company_people, job_tips, job_welfare)

if__name__ == '__main__':

get_message()

获取拉勾网数据分析岗数据如下。

这里的数据库都是自己在外面创建的,之前也用了好多回,就不贴代码细说了。

/ 03 / 数据可视化

01 城市分布图

岗位的分布情况,这里可以看出岗位大多都分布在东部地区,中部也有一些。

02 城市分布热力图

京津冀、长三角、珠三角密集度不相上下,成都重庆地区也有一小些需求。

可以说北上广深,这四个一线城市包揽了大部分的岗位需求。

03 工作经验薪水图

这里通过看箱形图的四分位及中间值,大致能看出随着工作年限的增长,薪资也是一路上升。

BOSS直聘里,1年以内工作经验的薪资,有个最高4万多的,这肯定是不合理的。

于是就去数据库看了下,其实那个岗位要求是3年以上,但实际给的标签却是1年以内。

所以说数据来源提供的数据的准确性很重要。

04 学历薪水图

总的来说「硕士」>「本科」>「大专」,当然大专、本科中也有高薪水的。

毕竟越往后能力就越重要,学历算是一个重要的加分项。

05 公司状态薪水图

这里的数据没什么特点,就当了解下这些概念。

一个公司的发展,可以是从「天使轮」一直到「上市公司」,路途坎坷。

06 公司规模薪水图

正常来说,公司规模越大,薪水应该会越高。

毕竟大厂的工资摆在那里,想不知道都难。

不过这里没能体现出来差距,倒是发现人数最少的公司,最高工资给的不高,难不成是初期缺钱?

07 公司类型TOP10

数据分析岗主要集中在互联网行业,「金融」「地产」「教育」「医疗」「游戏」也有所涉及。

大部分岗位需求都集中第三产业上。

08 工作技能图

这个算是本次的重点,这些技能将会是日后学习的重点。

「数据挖掘」「SQL」「BI」「数据运营」「SPSS」「数据库」「MySQL」等等。

09 工作福利图

这里可以看出大部分重点都围绕着「五险一金」「福利多」「团队氛围好」「晋升空间大」「行业大牛领头」上。

要是哪家公司都具备了,那简直就是要上天。

不过你我都清楚,这是不存在的,就算可能存在,也只是别人家的公司而已~

/ 04 / 总结

最后贴两张BOSS直聘以及拉勾网薪水TOP20,以此来作为勉励。

01 BOSS直聘薪水TOP20

02 拉勾网薪水TOP20

毕竟我们不能仅仅当条咸鱼,我们要当就当一只有梦想的咸鱼!!!

公众号回复 1207,即可获取源码。返回搜狐,查看更多

责任编辑:

python爬虫实践报告_Python 爬虫实践:浅谈数据分析岗位相关推荐

  1. python爬虫实验报告_python爬虫实验

    原博文 2013-06-28 13:30 − 那天在新浪微博上看到北北出的题目,由于最近也在做类似的爬虫研究,所以就有了这个实验. 后来在QQ上和北北说了下,要求是啥都抓,就抓乌云的... 然后就开始 ...

  2. python外星人实验报告_Python 项目实践一(外星人入侵)第一篇

    python断断续续的学了一段实践,基础课程终于看完了,现在跟着做三个小项目,第一个是外星人入侵的小游戏: 一 Pygame pygame 是一组功能强大而有趣的模块,可用于管理图形,动画乃至声音,让 ...

  3. 浅谈数据分析中的“暗物质”

    浅谈数据分析中的"暗物质" 我们分析数据,更重要的是看到数据中所隐藏的暗物质,即数据图中你看不见的数据\逻辑\知识. 开门见山,以下是某新闻媒体WAP\APP\PC三端的分周中和周 ...

  4. python爬虫实践报告_Python网络爬虫从入门到实践

    本书讲解了如何使用Python编写网络爬虫,涵盖爬虫的概念.Web基础.Chrome.Charles和Packet Capture抓包.urllib.Requests请求库.lxml.Beautifu ...

  5. python网络爬虫实验报告_Python网络爬虫实例讲解

    聊一聊Python与网络爬虫. 1.爬虫的定义 爬虫:自动抓取互联网数据的程序. 2.爬虫的主要框架 爬虫程序的主要框架如上图所示,爬虫调度端通过URL管理器获取待爬取的URL链接,若URL管理器中存 ...

  6. 物流管理python实践报告_Python程序设计 实验报告6

    实验六 函数 安徽工程大学 Python程序设计 实验报告 班级   物流192   姓名 周海国  学号3190505228 成绩 日期     2020.5.5    指导老师       修宇 ...

  7. python爬虫自学网站_Python爬虫3步曲:5分钟学习用Python解析网页

    使用正则表达式解析网页是Python的一个擅长的领域.如果还想更加深入地学习正则表达式,或者在平时经常用到正则表达式,可以进入Regular Expression 101网站学习,网站地址为 http ...

  8. python爬虫电影信息_Python爬虫入门 | 爬取豆瓣电影信息

    这是一个适用于小白的Python爬虫免费教学课程,只有7节,让零基础的你初步了解爬虫,跟着课程内容能自己爬取资源.看着文章,打开电脑动手实践,平均45分钟就能学完一节,如果你愿意,今天内你就可以迈入爬 ...

  9. python编程理论篇_Python爬虫入门实战之猫眼电影数据抓取(理论篇)

    前言 本文可能篇幅较长,但是绝对干货满满,提供了大量的学习资源和途径.达到让读者独立自主的编写基础网络爬虫的目标,这也是本文的主旨,输出有价值能够真正帮助到读者的知识,即授人以鱼不如授人以渔,让我们直 ...

最新文章

  1. 支付宝招兼职“找茬程序员” 不用坐班/最高奖励36万
  2. MongoDB可视化工具--Robo 3T 使用教程
  3. java核心-多线程-Java多线程编程涉及到包、类
  4. 【蓝桥杯官网试题 - 历届试题】发现环(dfs+并查集,或无向图tarjan判环,无向环,或拓扑排序)
  5. (递归7)生成可重集的排列
  6. java a%2==0_Java 初始化a=2 打印a+++a++为5
  7. nginx事件 -- 第六篇 stale event
  8. 敏捷结果30天练习即将开始
  9. 谷歌为开源的漏扫工具“海啸“发布新的补丁奖励计划
  10. Android P通知
  11. 机器学习面试-数学基础
  12. 修改功能(Ajax版)
  13. C#中string[]数组和liststring泛型的相互转换 【转】
  14. matlab取整函数与取余函数
  15. 中兴ZXVb860av2.1t刷机固件,芯片晶晨S905l-b,不失效线刷包,当贝桌面
  16. 互联网常见错误代码(如404)
  17. 【代老婆发】你是中介,你姐是黑中介,你们全家都是我爱我家的中介
  18. 前端-element-ui
  19. 开源应用程序打包工具
  20. 保监会下发保险业指导意见:将加强互联网保险监管

热门文章

  1. 智能电灯代码_智能电灯开关与智能电灯泡:您应该购买哪个?
  2. C语言都能用来干吗、我为什么要学C语言
  3. 用于Arduino的S4A图形化编程图文详解
  4. 制作关于计算机的ppt图片,10步教你制作图片墙PPT封面
  5. 广东中考数学不允许使用计算机,上070821对苏州市数学中考两次禁用计算器的反思终稿.doc...
  6. VS2010黑色主题Dark完美设置!
  7. 【华为OD机试真题 JAVA】用连续自然数之和来表达整数
  8. 一个定时器生成多路PWM波形的原理和方法成都自动化开发
  9. 【转载】别让自己“墙”了自己
  10. 高防cdn是什么,高防cdn跟加速cdn有什么区别