python 招聘 广州_python爬虫 智联招聘 工作地点
需求:智联上找工作的时候,工作地点在搜索页面只能看到城市-区。看不到具体的地址。(离家近的工作肯定优先考虑)
思路:爬取搜索页面(页面一)然后进去其中一个内页,再爬工作地点(页面二),【废话】
利用的库:re,csv,bs4,requests
基本功能已实现。
下一步方向,调取地图api 计算离家距离。
运算速度方面的话,可以考虑多线程处理。
以下代码拿来就用哈!
import requests
from bs4 import BeautifulSoup
import re
import csv
location = "广州"
search = "网络工程师"
fileName = location + "-" + search + ".csv"
with open(fileName, "w", newline="") as datacsv:
csvwriter = csv.writer(datacsv, dialect=("excel"))
# res = requests.get("https://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E4%BD%9B%E5%B1%B1&kw=%E7%BD%91%E7%BB%9C%E5%B7%A5%E7%A8%8B%E5%B8%88&sm=0&p=1")
Url = ("https://sou.zhaopin.com/jobs/searchresult.ashx?jl=%s&kw=%s&sm=0&p=1" % (location, search))
res = requests.get(Url)
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text,'html.parser')
all_work = []
for link in soup.find_all('a'):
if re.search("com/[0-9]*.htm",str(link.get('href'))):
all_work.append(link.get('href'))
for i in all_work:
work = []
res2 = requests.get(i)
res2.encoding = 'utf-8'
soup2 = BeautifulSoup(res2.text,'html.parser')
for z in soup2.find_all("h2"):
work.append((z.get_text()).split()[0])
work_list = str(soup2.get_text()).split()
work_list2 = []
count_y = 0
for y in work_list:
count_y +=1
if "职位月薪" in y:
work_list2 = work_list[count_y-1:count_y+6]
for xx in work_list2:
work.append(xx)
csvwriter.writerow(work)
break
datacsv.close()
python 招聘 广州_python爬虫 智联招聘 工作地点相关推荐
- python爬虫——智联招聘(上)
开发环境 win7+,python3.4+ pymysql库,安装:pip3 install pymysql selenium库,火狐浏览器56.0版本,geckodriver.exe,seleniu ...
- python 爬虫 智联招聘
本方法使用cookie的方法下载智联招聘的职位.主要就是要先登录智联招聘,然后将对应的cookie作为爬虫访问的header.代码如下: import requests import re impor ...
- Python利用Scrapy爬取智联招聘和前程无忧的招聘数据
爬虫起因 前面两个星期,利用周末的时间尝试和了解了一下Python爬虫,紧接着就开始用Scrapy框架做了一些小的爬虫,不过,由于最近一段时间的迷茫,和处于对职业生涯的规划.以及对市场需求的分析, ...
- python爬虫 智联招聘 工作地点
需求:智联上找工作的时候,工作地点在搜索页面只能看到城市-区.看不到具体的地址.(离家近的工作肯定优先考虑)思路:爬取搜索页面(页面一)然后进去其中一个内页,再爬工作地点(页面二),[废话]利用的库: ...
- python工作招聘-python爬虫 智联招聘 工作地点
需求:智联上找工作的时候,工作地点在搜索页面只能看到城市-区.看不到具体的地址.(离家近的工作肯定优先考虑) 思路:爬取搜索页面(页面一)然后进去其中一个内页,再爬工作地点(页面二),[废话] 利用的 ...
- Python爬虫--智联招聘职位和公司信息爬取
用scrapy框架进行爬取 目录结构: 1. items.py 文件 事先定义好我们要进行爬取的信息 # -*- coding: utf-8 -*-# Define here the models f ...
- python爬取智联招聘网_Python-爬取智联招聘
import urllib.request import urllib.parse from bs4 import BeautifulSoup import json import time clas ...
- 爬虫项目十七:用Python轻松爬下智联招聘七千条招聘信息
文章目录 前言 一.列表页URL获取 二.详情页URL获取 三.获取数据 总结 前言 利用Python requets+selenium 爬取智联招聘中全国招聘数据.如果看过我之前的文章那应该知道我们 ...
- python爬虫开发之“智联招聘”网页爬取
先贴上需求: 1. 输入起始页 和结束页 爬取智联招聘上 与python相关职业2. 爬取的信息包括 就业岗位名称 薪资 地区 公司名称 需求{包括学历和经验}3. 爬取的信息以字典形式保存到mong ...
最新文章
- linux中级篇--网络相关命令
- 为AD用户启用或禁用OCS 2007 R2帐户
- Codeforces Round #630 (Div. 2) E. Height All the Same 排列组合
- sap原因代码配置路径_如何根据SAP Table找到对应IMG配置?
- webpack——文件和图片打包
- 超快的HTML5 2D渲染引擎Pixi.js入门
- Keli 编译遇到 *** FATAL ERROR L250: CODE SIZE LIMIT IN RESTRICTED VERSION EXCEEDED且已经破解
- Javascript时间脚本收集
- 效率源linux,效率源希捷硬盘修复(4.2版)及程序下载
- 为什么有了二叉搜索树和二叉平衡树之后还需要红黑树?
- 云原生数据湖以存储、计算、数据管理等能力通过信通院评测认证
- 用服务器玩安卓虚拟机,Android手机上运行linux虚拟机
- android筛选功能代码,Android中 TeaScreenPopupWindow多类型筛选弹框功能的实例代码
- java大写转化小写的同时小写转化成大写的方法
- Mac Cordova iOS配置和常见问题
- 统计专业人数 (10 分)
- mysql全局权限账户%登录不上ERROR 1045 (28000): Access denied for user 'zzq'@'localhost' (using password: YES)
- uniapp 微信小程序 获取图形验证码解决方案
- 连续四年ROE在20%附近的绩优股
- 百度移动应用安卓_第三方渠道之殇:继PP助手后,百度下线91与安卓市场渠道 | 游戏茶馆...
热门文章
- 读陆文周之《Qt 5 开发及实例》
- React Native制作仿美团APP总结
- 无人驾驶小车调试笔记(一)-- 调试环境部署
- 图形故障LOGO开场PR片头模板免费下载
- Springboot毕设项目校园代取快递系统03w4xjava+VUE+Mybatis+Maven+Mysql+sprnig)
- 易經大意(13) 三和 韓長庚 著
- 《软件测试技术实战:设计、工具及管理》—第2章 2.1节运用等价类/边界值设计测试用例...
- mysql-connector-java 插入 utf8mb4 字符失败问题处理分析
- 特步CEO之女与七匹狼董事长之子订婚 泉州富豪结成亲家网
- CODE【VS】1384 黑色星期五(计算某一天是星期几的公式)