简单爬虫+pyecharts分析前途无忧招聘职位数量
爬虫+pyecharts分析前途无忧招聘职位数量
关于pyecharts的安装与使用可参考:http://pyecharts.org/#/zh-cn/intro
代码如下
from pyecharts.charts import Bar
from pyecharts import options as opts
import requests
from urllib import parse
import urllib
import redef oneparse(oneurl):oneurls = 'https://search.51job.com/list/030200%252C040000,000000,0000,00,9,99,{},2,1.html?'response = requests.get(oneurls.format(oneurl))html = response.content.decode("gbk")oneSL = re.findall('共(.*?)条职位',html)[0]print(oneSL)SL_list.append(oneSL)def twoparse(twourl):twourls = 'https://search.51job.com/list/030200%252C040000,000000,0000,00,9,99,{},2,1.html?'response = requests.get(twourls.format(twourl))html = response.content.decode("gbk")twoSL = re.findall('共(.*?)条职位',html)[0]print(twoSL)SL_list.append(twoSL)def threeparse(threeurl):threeurls = 'https://search.51job.com/list/030200%252C040000,000000,0000,00,9,99,{},2,1.html?'response = requests.get(threeurls.format(threeurl))html = response.content.decode("gbk")threeSL = re.findall('共(.*?)条职位',html)[0]print(threeSL)SL_list.append(threeSL)def fourparse(foururl):foururls = 'https://search.51job.com/list/030200%252C040000,000000,0000,00,9,99,{},2,1.html?'response = requests.get(foururls.format(foururl))html = response.content.decode("gbk")fourSL = re.findall('共(.*?)条职位',html)[0]print(fourSL)SL_list.append(fourSL)if __name__ == '__main__':SL_list = []onename = str(input())twoname = str(input())threename = str(input())fourname = str(input())oneurl = urllib.parse.quote(onename)twourl = urllib.parse.quote(twoname)threeurl = urllib.parse.quote(threename)foururl = urllib.parse.quote(fourname)oneparse(oneurl)twoparse(twourl)threeparse(threeurl)fourparse(foururl)name=[onename, twoname, threename, fourname]bar = Bar()bar.add_xaxis(name)bar.add_yaxis("前途无忧", SL_list)bar.set_global_opts(title_opts=opts.TitleOpts(title="广州+深圳的职位数量"))bar.render()
运行结果
简单爬虫+pyecharts分析前途无忧招聘职位数量相关推荐
- 利用Scrapy框架爬取前途无忧招聘信息
利用Scrapy框架爬取前途无忧招聘信息 关于安装和命令使用可参考:https://docs.scrapy.org/en/1.7/intro/install.html 先创建项目和爬虫文件 分析网站 ...
- python简单爬虫程序分析_[Python专题学习]-python开发简单爬虫
掌握开发轻量级爬虫,这里的案例是不需要登录的静态网页抓取.涉及爬虫简介.简单爬虫架构.URL管理器.网页下载器(urllib2).网页解析器(BeautifulSoup) 一.爬虫简介以及爬虫的技术价 ...
- Python网络爬虫爬取智联招聘职位
观察网站结构. 打开智联招聘网页,搜索数据分析师,出来很多招聘岗位,限定全国范围,从下图看出有12354个职位,一共有90页,看最后一页职位已经只是和数据分析师相关而已. 看看最后一页搜索结果 PS: ...
- Python爬虫爬取智联招聘职位信息
目的:输入要爬取的职位名称,五个意向城市,爬取智联招聘上的该信息,并打印进表格中 #coding:utf-8 import urllib2 import re import xlwtclass ZLZ ...
- 【Python爬虫案例学习20】Python爬虫爬取智联招聘职位信息
目的:输入要爬取的职位名称,五个意向城市,爬取智联招聘上的该信息,并打印进表格中 ####基本环境配置: Python版本:2.7 开发工具:pycharm 系统:win10 ####相关模块: im ...
- Python爬虫+可视化分析技术实现招聘网站岗位数据抓取与分析推荐系统
程序主要采用Python 爬虫+flask框架+html+javascript实现岗位推荐分析可视化系统,实现工作岗位的实时发现,推荐检索,快速更新以及工作类型的区域分布效果,关键词占比分析等. 程序 ...
- 智联招聘python岗位_Python爬虫爬取智联招聘职位信息
import urllib2 import re import xlwt '''遇到不懂的问题?Python学习交流群:821460695满足你的需求,资料都已经上传群文件,可以自行下载!''' cl ...
- python简单爬虫入库_python用BeautifulSoup库简单爬虫实例分析
会用到的功能的简单介绍 1.from bs4 import BeautifulSoup #导入库 2.请求头herders headers={'User-Agent': 'Mozilla/5.0 (W ...
- 数据分析师+前途无忧爬虫分析
首先说明这篇文章的数据来源,为前程无忧中所有"数据分析师"这一职位信息所得来的.并且主要分析了数据分析师在全国不同地区的需求情况.总体薪酬情况.不同城市薪酬分布.不同学历薪酬分布. ...
最新文章
- 这三年被分布式坑惨了,曝光十大坑
- 【STM32】GPIO之蜂鸣器
- Angstrom移植操作
- 如何给Linux操作系统(CentOS 7为例)云服务器配置环境等一系列东西
- 获取系统信息3——proc文件系统介绍和使用
- C# 把list中的数据转成规定格式的json格式
- 风变python小课离线版_Python是个什么鬼?为什么医学生朋友圈里都是它!
- 《天天数学》连载36:二月五日
- 将pdbqt文件转成SMILES文件
- 阶段3 2.Spring_08.面向切面编程 AOP_2 spring中的aop术语和细节
- DSP2812开发板学习
- 关于开源软件开发的若干问题
- 小荷才露尖尖角之struts的秘密
- 笔记本计算机风扇声音大怎么办,笔记本电脑噪音大怎么办 全解决方法
- 基于Vue实现的网页音乐播放器
- idea html特别卡,完美解决idea突然间很卡的问题
- 香甜的黄油 图论—最短路径
- C# 文本转语音朗读
- houdini instance
- sichost.exe,winxphelp.exe,360up.exe,RavNT.exe,Counter.exe,login.jpg.exe等4