爬虫+pyecharts分析前途无忧招聘职位数量

关于pyecharts的安装与使用可参考:http://pyecharts.org/#/zh-cn/intro

代码如下

from pyecharts.charts import Bar
from pyecharts import options as opts
import requests
from urllib import parse
import urllib
import redef oneparse(oneurl):oneurls = 'https://search.51job.com/list/030200%252C040000,000000,0000,00,9,99,{},2,1.html?'response = requests.get(oneurls.format(oneurl))html = response.content.decode("gbk")oneSL = re.findall('共(.*?)条职位',html)[0]print(oneSL)SL_list.append(oneSL)def twoparse(twourl):twourls = 'https://search.51job.com/list/030200%252C040000,000000,0000,00,9,99,{},2,1.html?'response = requests.get(twourls.format(twourl))html = response.content.decode("gbk")twoSL = re.findall('共(.*?)条职位',html)[0]print(twoSL)SL_list.append(twoSL)def threeparse(threeurl):threeurls = 'https://search.51job.com/list/030200%252C040000,000000,0000,00,9,99,{},2,1.html?'response = requests.get(threeurls.format(threeurl))html = response.content.decode("gbk")threeSL = re.findall('共(.*?)条职位',html)[0]print(threeSL)SL_list.append(threeSL)def fourparse(foururl):foururls = 'https://search.51job.com/list/030200%252C040000,000000,0000,00,9,99,{},2,1.html?'response = requests.get(foururls.format(foururl))html = response.content.decode("gbk")fourSL = re.findall('共(.*?)条职位',html)[0]print(fourSL)SL_list.append(fourSL)if __name__ == '__main__':SL_list = []onename = str(input())twoname = str(input())threename = str(input())fourname = str(input())oneurl = urllib.parse.quote(onename)twourl = urllib.parse.quote(twoname)threeurl = urllib.parse.quote(threename)foururl = urllib.parse.quote(fourname)oneparse(oneurl)twoparse(twourl)threeparse(threeurl)fourparse(foururl)name=[onename, twoname, threename, fourname]bar = Bar()bar.add_xaxis(name)bar.add_yaxis("前途无忧", SL_list)bar.set_global_opts(title_opts=opts.TitleOpts(title="广州+深圳的职位数量"))bar.render()

运行结果

简单爬虫+pyecharts分析前途无忧招聘职位数量相关推荐

  1. 利用Scrapy框架爬取前途无忧招聘信息

    利用Scrapy框架爬取前途无忧招聘信息 关于安装和命令使用可参考:https://docs.scrapy.org/en/1.7/intro/install.html 先创建项目和爬虫文件 分析网站 ...

  2. python简单爬虫程序分析_[Python专题学习]-python开发简单爬虫

    掌握开发轻量级爬虫,这里的案例是不需要登录的静态网页抓取.涉及爬虫简介.简单爬虫架构.URL管理器.网页下载器(urllib2).网页解析器(BeautifulSoup) 一.爬虫简介以及爬虫的技术价 ...

  3. Python网络爬虫爬取智联招聘职位

    观察网站结构. 打开智联招聘网页,搜索数据分析师,出来很多招聘岗位,限定全国范围,从下图看出有12354个职位,一共有90页,看最后一页职位已经只是和数据分析师相关而已. 看看最后一页搜索结果 PS: ...

  4. Python爬虫爬取智联招聘职位信息

    目的:输入要爬取的职位名称,五个意向城市,爬取智联招聘上的该信息,并打印进表格中 #coding:utf-8 import urllib2 import re import xlwtclass ZLZ ...

  5. 【Python爬虫案例学习20】Python爬虫爬取智联招聘职位信息

    目的:输入要爬取的职位名称,五个意向城市,爬取智联招聘上的该信息,并打印进表格中 ####基本环境配置: Python版本:2.7 开发工具:pycharm 系统:win10 ####相关模块: im ...

  6. Python爬虫+可视化分析技术实现招聘网站岗位数据抓取与分析推荐系统

    程序主要采用Python 爬虫+flask框架+html+javascript实现岗位推荐分析可视化系统,实现工作岗位的实时发现,推荐检索,快速更新以及工作类型的区域分布效果,关键词占比分析等. 程序 ...

  7. 智联招聘python岗位_Python爬虫爬取智联招聘职位信息

    import urllib2 import re import xlwt '''遇到不懂的问题?Python学习交流群:821460695满足你的需求,资料都已经上传群文件,可以自行下载!''' cl ...

  8. python简单爬虫入库_python用BeautifulSoup库简单爬虫实例分析

    会用到的功能的简单介绍 1.from bs4 import BeautifulSoup #导入库 2.请求头herders headers={'User-Agent': 'Mozilla/5.0 (W ...

  9. 数据分析师+前途无忧爬虫分析

    首先说明这篇文章的数据来源,为前程无忧中所有"数据分析师"这一职位信息所得来的.并且主要分析了数据分析师在全国不同地区的需求情况.总体薪酬情况.不同城市薪酬分布.不同学历薪酬分布. ...

最新文章

  1. 这三年被分布式坑惨了,曝光十大坑
  2. 【STM32】GPIO之蜂鸣器
  3. Angstrom移植操作
  4. 如何给Linux操作系统(CentOS 7为例)云服务器配置环境等一系列东西
  5. 获取系统信息3——proc文件系统介绍和使用
  6. C# 把list中的数据转成规定格式的json格式
  7. 风变python小课离线版_Python是个什么鬼?为什么医学生朋友圈里都是它!
  8. 《天天数学》连载36:二月五日
  9. 将pdbqt文件转成SMILES文件
  10. 阶段3 2.Spring_08.面向切面编程 AOP_2 spring中的aop术语和细节
  11. DSP2812开发板学习
  12. 关于开源软件开发的若干问题
  13. 小荷才露尖尖角之struts的秘密
  14. 笔记本计算机风扇声音大怎么办,笔记本电脑噪音大怎么办 全解决方法
  15. 基于Vue实现的网页音乐播放器
  16. idea html特别卡,完美解决idea突然间很卡的问题
  17. 香甜的黄油 图论—最短路径
  18. C# 文本转语音朗读
  19. houdini instance
  20. sichost.exe,winxphelp.exe,360up.exe,RavNT.exe,Counter.exe,login.jpg.exe等4

热门文章

  1. 封装一个完整版的uniapp图片和视频上传组件,拿来即用,可进行图片视频切换,可自定义上传按钮样式,删除按钮样式,可单独上传图片或者视频,可限制上传数量
  2. 夜光祝愿大家 520 快乐
  3. GC 疑难情况问题排查与分析(下篇)
  4. 编译型语言和解释型语言
  5. template.js前端模板引擎使用
  6. Python基础之格式化输出
  7. vue: v-for在表格标签的tr标签里不能使用情况
  8. 数据库-——关系代数的除法运算最白话解析
  9. Paxos(帕克索斯)一致性算法[卷一]
  10. 利用“中性灰”进行校色!