需求:智联上找工作的时候,工作地点在搜索页面只能看到城市-区。看不到具体的地址。(离家近的工作肯定优先考虑)

思路:爬取搜索页面(页面一)然后进去其中一个内页,再爬工作地点(页面二),【废话】

利用的库:re,csv,bs4,requests

基本功能已实现。

下一步方向,调取地图api 计算离家距离。

运算速度方面的话,可以考虑多线程处理。

以下代码拿来就用哈!

import requests

from bs4 import BeautifulSoup

import re

import csv

location = "广州"

search = "网络工程师"

fileName = location + "-" + search + ".csv"

with open(fileName, "w", newline="") as datacsv:

csvwriter = csv.writer(datacsv, dialect=("excel"))

# res = requests.get("https://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E4%BD%9B%E5%B1%B1&kw=%E7%BD%91%E7%BB%9C%E5%B7%A5%E7%A8%8B%E5%B8%88&sm=0&p=1")

Url = ("https://sou.zhaopin.com/jobs/searchresult.ashx?jl=%s&kw=%s&sm=0&p=1" % (location, search))

res = requests.get(Url)

res.encoding = 'utf-8'

soup = BeautifulSoup(res.text,'html.parser')

all_work = []

for link in soup.find_all('a'):

if re.search("com/[0-9]*.htm",str(link.get('href'))):

all_work.append(link.get('href'))

for i in all_work:

work = []

res2 = requests.get(i)

res2.encoding = 'utf-8'

soup2 = BeautifulSoup(res2.text,'html.parser')

for z in soup2.find_all("h2"):

work.append((z.get_text()).split()[0])

work_list = str(soup2.get_text()).split()

work_list2 = []

count_y = 0

for y in work_list:

count_y +=1

if "职位月薪" in y:

work_list2 = work_list[count_y-1:count_y+6]

for xx in work_list2:

work.append(xx)

csvwriter.writerow(work)

break

datacsv.close()

python 招聘 广州_python爬虫 智联招聘 工作地点相关推荐

  1. python爬虫——智联招聘(上)

    开发环境 win7+,python3.4+ pymysql库,安装:pip3 install pymysql selenium库,火狐浏览器56.0版本,geckodriver.exe,seleniu ...

  2. python 爬虫 智联招聘

    本方法使用cookie的方法下载智联招聘的职位.主要就是要先登录智联招聘,然后将对应的cookie作为爬虫访问的header.代码如下: import requests import re impor ...

  3. Python利用Scrapy爬取智联招聘和前程无忧的招聘数据

    爬虫起因   前面两个星期,利用周末的时间尝试和了解了一下Python爬虫,紧接着就开始用Scrapy框架做了一些小的爬虫,不过,由于最近一段时间的迷茫,和处于对职业生涯的规划.以及对市场需求的分析, ...

  4. python爬虫 智联招聘 工作地点

    需求:智联上找工作的时候,工作地点在搜索页面只能看到城市-区.看不到具体的地址.(离家近的工作肯定优先考虑)思路:爬取搜索页面(页面一)然后进去其中一个内页,再爬工作地点(页面二),[废话]利用的库: ...

  5. python工作招聘-python爬虫 智联招聘 工作地点

    需求:智联上找工作的时候,工作地点在搜索页面只能看到城市-区.看不到具体的地址.(离家近的工作肯定优先考虑) 思路:爬取搜索页面(页面一)然后进去其中一个内页,再爬工作地点(页面二),[废话] 利用的 ...

  6. Python爬虫--智联招聘职位和公司信息爬取

    用scrapy框架进行爬取 目录结构: 1. items.py 文件 事先定义好我们要进行爬取的信息 # -*- coding: utf-8 -*-# Define here the models f ...

  7. python爬取智联招聘网_Python-爬取智联招聘

    import urllib.request import urllib.parse from bs4 import BeautifulSoup import json import time clas ...

  8. 爬虫项目十七:用Python轻松爬下智联招聘七千条招聘信息

    文章目录 前言 一.列表页URL获取 二.详情页URL获取 三.获取数据 总结 前言 利用Python requets+selenium 爬取智联招聘中全国招聘数据.如果看过我之前的文章那应该知道我们 ...

  9. python爬虫开发之“智联招聘”网页爬取

    先贴上需求: 1. 输入起始页 和结束页 爬取智联招聘上 与python相关职业2. 爬取的信息包括 就业岗位名称 薪资 地区 公司名称 需求{包括学历和经验}3. 爬取的信息以字典形式保存到mong ...

最新文章

  1. linux中级篇--网络相关命令
  2. 为AD用户启用或禁用OCS 2007 R2帐户
  3. Codeforces Round #630 (Div. 2) E. Height All the Same 排列组合
  4. sap原因代码配置路径_如何根据SAP Table找到对应IMG配置?
  5. webpack——文件和图片打包
  6. 超快的HTML5 2D渲染引擎Pixi.js入门
  7. Keli 编译遇到 *** FATAL ERROR L250: CODE SIZE LIMIT IN RESTRICTED VERSION EXCEEDED且已经破解
  8. Javascript时间脚本收集
  9. 效率源linux,效率源希捷硬盘修复(4.2版)及程序下载
  10. 为什么有了二叉搜索树和二叉平衡树之后还需要红黑树?
  11. 云原生数据湖以存储、计算、数据管理等能力通过信通院评测认证
  12. 用服务器玩安卓虚拟机,Android手机上运行linux虚拟机
  13. android筛选功能代码,Android中 TeaScreenPopupWindow多类型筛选弹框功能的实例代码
  14. java大写转化小写的同时小写转化成大写的方法
  15. Mac Cordova iOS配置和常见问题
  16. 统计专业人数 (10 分)
  17. mysql全局权限账户%登录不上ERROR 1045 (28000): Access denied for user 'zzq'@'localhost' (using password: YES)
  18. uniapp 微信小程序 获取图形验证码解决方案
  19. 连续四年ROE在20%附近的绩优股
  20. 百度移动应用安卓_第三方渠道之殇:继PP助手后,百度下线91与安卓市场渠道 | 游戏茶馆...

热门文章

  1. 读陆文周之《Qt 5 开发及实例》
  2. React Native制作仿美团APP总结
  3. 无人驾驶小车调试笔记(一)-- 调试环境部署
  4. 图形故障LOGO开场PR片头模板免费下载
  5. Springboot毕设项目校园代取快递系统03w4xjava+VUE+Mybatis+Maven+Mysql+sprnig)
  6. 易經大意(13) 三和 韓長庚 著
  7. 《软件测试技术实战:设计、工具及管理》—第2章 2.1节运用等价类/边界值设计测试用例...
  8. mysql-connector-java 插入 utf8mb4 字符失败问题处理分析
  9. 特步CEO之女与七匹狼董事长之子订婚 泉州富豪结成亲家网
  10. CODE【VS】1384 黑色星期五(计算某一天是星期几的公式)