运行环境:PyCharm、Python3.6
运行库:urllib、re、xlwt
最后编辑时间:2018年11月21日

解析网页源码

#先导入爬取数据所需的库
import urllib.request as ur#用于网页数据获取
import re#正则匹配网页数据中所需的数据
import xlwt#将获取的数据保存为excel文件def get_content(page):#获取源码def get(html):#在已完成转换的网页源码中匹配所需的职位信息def excel_write(items,index):#写入excel文件newTable = '统计.xls'#设定生成的excel文件名
wb = xlwt.Workbook(encoding='utf-8')#excel中的文本编译
ws = wb.add_sheet('sheet1')#在excel中新建一张工作表
headData = ['职位','公司','地址','工资','日期']#标题栏for colnum in range(0,5):ws.write(0,colnum,headData[colnum],xlwt.easyxf('font:bold on'))for each in range(1,154):print('正在爬去第',each,'页')index = (each-1)*50+1#每一页约有50条数据excel_write(get(get_content(each)),index)
wb.save(newTable)#存储
input('输入任意字符退出:')

资源下载地址

Python3.6爬取前程无忧相关推荐

  1. Python3爬取前程无忧招聘数据教程

    文章来自群友 易某某 的投稿,在此表示感谢! 原文链接:https://blog.csdn.net/weixin_42572590/article/details/103443213 前几天,我发表了 ...

  2. python3 爬虫 爬取华为应用市场 APP应用评论(一)爬取全部评论——学霸君

    python3 爬虫 爬取华为应用市场 APP应用评论(一)爬取全部评论--学霸君 import requests import re import requests from bs4 import ...

  3. python3 爬虫 爬取华为应用市场 APP应用评论(一)爬取全部评论——作业帮

    python3 爬虫 爬取华为应用市场 APP应用评论(一)爬取全部评论--作业帮 import requests import re import requests from bs4 import ...

  4. python3+selenium爬取笔记本电脑详情信息

    python3+selenium爬取购物商店 准备工作 分析 url xpath 附完整代码 准备工作 # 用到的包 selenium #Web自动化测试工具 urllib #URL地址中查询参数进行 ...

  5. python爬虫实战之多线程爬取前程无忧简历

    python爬虫实战之多线程爬取前程无忧简历 import requests import re import threading import time from queue import Queu ...

  6. 【scrapy】实战爬取前程无忧职位信息

    @Hadi 初来乍到 多多点赞 文章目录 @Hadi 前言 一.简述Scrapy 1.什么是scrpay框架 2.基本架构 二.需求分析 1.需求是什么 2.对目标页面进行分析 URL结构分析 三.开 ...

  7. python爬取前程无忧scrapy存mogondb案例

    一.分析网页 新:python爬取前程无忧scrapy存mogondb案例+可视化 原网页直达 1.比如java字段,可以先拿到全部的el获取java字段的href,然后在逐个访问进入详情页 2.编写 ...

  8. Python利用Scrapy爬取前程无忧

    ** Python利用Scrapy爬取前程无忧 ** 一.爬虫准备 Python:3.x Scrapy PyCharm 二.爬取目标 爬取前程无忧的职位信息,此案例以Python为关键词爬取相应的职位 ...

  9. 手把手Selenium安装使用及实战爬取前程无忧招聘网站(一)

    目录 一.安装浏览器驱动器 1. 下载驱动器 2. 启动驱动器 二 .selenium的使用 1. 启动驱动器加载网页 2. 八大元素定位 (1)id 定位 (2)name定位 (3)link_tex ...

  10. python3爬虫爬取百度贴吧下载图片

    python3爬虫爬取百度贴吧下载图片 学习爬虫时没事做的小练习. 百度对爬虫还是很友好的,在爬取内容方面还是较为容易. 可以方便各位读者去百度贴吧一键下载每个楼主的图片,至于是什么类型的图片,就看你 ...

最新文章

  1. 架构师必然是孤独的领袖
  2. String比较 运用String.equals
  3. vim中实现CSS、HTML代码自动完成功能
  4. ext中给文本框赋值的方法_大多数人不知道的Python合并字典的七种方法
  5. python爬虫流程-小白必看的Python爬虫流程
  6. CrazyDiskInfo硬盘检测工具 安装记录
  7. 数据库sql创建标量值函数_使用JSON_VALUE()从JSON数据中提取标量值
  8. 凭什么说“Python 太慢,Java 太笨拙,我讨厌 JavaScript”?
  9. Monkey Test
  10. DLL注入的多种方式
  11. 视频在html不能播放器,网页播放器打不开的解决方法
  12. debian的几个lib源_Linux各个文件夹的主要作用 (源地址
  13. 【Week 15 作业A】ZJM 与霍格沃兹
  14. 欧拉函数φ(x)简要介绍及c++实现
  15. 将秒转换为小时:分钟:秒
  16. 关键信息基础设施安全控制措施
  17. C++使用socket实现与微信小程序通信
  18. Windows 对全屏应用的优化
  19. 商务汇报PPT制作的七堂课-第六课:数据美化
  20. 【附源码】计算机毕业设计JAVA医院门诊管理系统

热门文章

  1. “中国年龄最小的黑客”汪正扬资料介绍 写编程代码曾敲坏电脑
  2. MySQL 事务隔离级别
  3. 实战教程:平面设计配色原则
  4. Win32gui 无效窗口句柄
  5. 理财——优质生活的第一步
  6. 《老爸老妈浪漫史》Barney和Robin终于。。。
  7. 2018-12支付宝红包赚钱薅羊毛全攻略
  8. 关于web站点的欢迎界面
  9. signature=9aadee6a3f882c84134bf5f6f04d2c93,Fw: Updated Scor Input Requirements
  10. 斑马Zebra LP2844 打印机驱动