写了个阿里巴巴招聘网站爬虫,这次是存在csv文件里,小伙伴们可以对比一下~

import requests,json,csv

#写入csv文件中

list=[]

csv_file=open('阿里巴巴招聘.csv','w+',newline='',encoding='utf=8')

writer=csv.writer(csv_file)

list_head=['职位名称','部门','是否招聘','学历','大类','小类','工作地','工作经历','要求','职责']

writer.writerow(list_head)

#爬虫

keyword=str(input('请输入职位关键字:'))

url='https://job.alibaba.com/zhaopin/socialPositionList/doList.json'

headers={

'Referer': 'https://job.alibaba.com/zhaopin/positionList.htm?spm=a2obv.11875463.0.0.2ac23a5dSb7Wbw',

}

for p in range(10):

p=p+1

data={

'MIME 类型': 'application/x-www-form-urlencoded; charset=UTF-8',

'pageSize': '10',

't': '0.9218667109769481',

'keyWord': keyword,

'location'

'second'

'first'

'pageIndex': str(p)

}

cookies={

'Cookie': ' isg=BM7OlPeDH1cyaKt12PikCz_-HaKQT5JJOm4ATvgXOlGNW2y1at3VWbNdkwc32Iph; l=cBLBoTMuqFP2KvuXBOCanurza77OSId4YuPzaNbMi_5BG6L1xV_Okk5T4Fp6csWFGhLk4nXUfzeT6FibJPDjtQPl2eGJXZ5..; CNZZDATA1000004769=1840857478-1567157075-%7C1567549123; tmp0=6vzoNBZKbkA%2BBLyFAxc%2F%2B5%2FiZdeVqJ%2BQe1wqEFgcolw%2Bv%2BNF%2BSOMmjyEAbaxmDieCW6DN%2FW1NgF3ABlBHs%2BQVVV2hLJ2KNwMGtDuyycdGSJ6QuN6svOgAsp7j9AZ0WOupUzUlbSrvipNMHgwXXNByNszrL0xUXa2GZogaVwPGKi7SGNCFAAV69vqvj6X2DlVaPMaTpJ3iqH20Tnd%2FLw7QVdbcEn3PhXzGaBl3yQmiW9LYRA8MDOBcbOWVZJ1lrwS8QCt4%2FQhkY70vFtrIvKAQhtb4iXr6OkIZI793Ao1syY%3D; _hvn_login=0; csg=87ae08c0; _tb_token_=eeed45e87e5e7; cookie2=14659eb4996e47c896f304074d300557; JSESSIONID=JFYJXFOV-FDC82NZA4NVS98Y8CX7N3-KRA0E30K-9MTB2; t=81b209fbe498754d386d92ccdaa8ff67; UM_distinctid=16ce1eb6c4342c-05f3012e7a8dcb8-3f616f4a-13c680-16ce1eb6c443e1; cna=ft7vFfKyZQACAbeW36y9ZReA'

}

res_post=requests.post(url,headers=headers,data=data,cookies=cookies)

res_text=res_post.text

res_dict=json.loads(res_text)

positions=res_dict['returnValue']['datas']

for position in positions:

requirement=position['requirement']

departmentName=position['departmentName'][5:]

workExperience=position['workExperience']

description=position['description']

name=position['name']

degree=position['degree']

firstCategory=position['firstCategory']

secondCategory=position['secondCategory']

workLocation=position['workLocation']

status=position['status']

list_content=[name,departmentName,status,degree,firstCategory,secondCategory,workLocation,workExperience,requirement,description]

list.append(list_content)

writer.writerow(list_content)

csv_file.close()

print('爬取成功!')

阿里巴巴python招聘_python阿里巴巴招聘网站爬虫相关推荐

  1. python爬虫网页数据案例_python+vue实现网站爬虫数据分析案例

    项目描述 基础环境:python + flask + vue + element-ui + echarts python_spiders -- 爬虫后台项目 python_spiders_web -- ...

  2. 阿里巴巴python教程_阿里巴巴工程师内部的一份全新Python学习清单,你一定可以用得到...

    站在风口上,猪都能飞起来.人工智能风口,让Pyhon这门胶水语言转变成非常火的网红语言. 编程功力深厚的程序员花一两个星期就能上手Python,而一些新手程序员花几个月就可以上手. 学编程,用Pyth ...

  3. 基于Python的招聘网站爬虫及可视化的设计与实现

    摘 要 I Abstract II 引 言 1 第1章 课题概述 2 1.1 课题内容 2 1.2 课题背景 2 1.3 课题意义 3 1.4 运行环境 3 1.5 相关技术 3 1.5.1 Pyth ...

  4. 【基于Python的招聘网站爬虫及可视化的设计与实现】

    完整下载:基于Python的招聘网站爬虫及可视化的设计与实现.docx 目录 目录 2 摘要 3 关键词 3 第一章 绪论 3 1.1 研究背景 3 1.2 研究意义 4 1.3 研究目的 6 1.4 ...

  5. scrapy+招聘网站爬虫笔记

    scrapy+招聘网站爬虫笔记 先看看要爬的网站:https://sou.zhaopin.com/?jl=719&kw=%E8%8D%AF%E7%89%A9 目的:获取每个城市的时间.区域.城 ...

  6. 招聘网站爬虫及可视化分析

    1 简介 今天向大家介绍一个帮助往届学生完成的毕业设计项目,招聘网站爬虫及可视化分析. 计算机毕业生设计,课程设计需要帮助的可以找我 代码 https://pan.baidu.com/s/1Cdxrl ...

  7. 招聘网站代码模板 mysql_招聘网站爬虫模板

    招聘网站爬虫模板 项目的创建 项目的设置 中间件的理解与使用 selenium的基本使用 爬虫项目的创建: scrapy startproject spiderName cd spiderName s ...

  8. 微软 python 招聘_Python 之父入职微软要搞事?!送几本 Python 书压压惊!​

    联合电子工业出版社送出6本Python书籍: 1.<Visual Studio Code 权威指南> 本书由浅入深地介绍了Visual Studio Code的各个方面,主要包括Visua ...

  9. 阿里巴巴2016算法岗实习招聘(西安)在线笔试整理

    阿里巴巴2016算法岗实习招聘(西安)在线笔试整理 2016年4月20日晚19点到21点,阿里巴巴2016算法岗实习招聘(西安)部分在线笔试题整理. 单项选择题 1.某体校选择校服,每套校服都包括短袖 ...

最新文章

  1. FPGA硬件构成详解
  2. bagging 与boosting
  3. RxSwift之深入解析Subject的使用和实现原理
  4. 递归判断一个数是否递增
  5. 女人,向《奋斗》中的夏琳米莱们学习什么
  6. 如何将多个文件捆绑成一个可执行文件
  7. 【Linux】详解Linux中3个文件查找相关命令
  8. JMeter循环控制器循环次数使用变量控制注意事项
  9. java 136年以后的时间_136年清明查询 - 136年清明是几号 - 136年清明具体时间
  10. python常用库大全文库_Python库参考手册
  11. Adobe Flash Player已不再受支持 解决方案
  12. 医学知识-CT的窗宽窗位
  13. 最快路由器服务器地址,路由器中radius服务器IP地址要用什么样的IP
  14. Vue中的 Filters 过滤器
  15. 快速开发平台——运用它就可以高效率开发出合乎自己需求的应用软件。
  16. Mac 卸载重装 brew
  17. acr38u PHP调用,ACS ACR38U-N1智能卡读卡器驱动
  18. 无服务器:S3 – S3BucketPermissions –操作不适用于语句中的任何资源
  19. Scanner in = new Scanner(System.in);是什么意思?
  20. win7 使用mklink瘦身C盘空间

热门文章

  1. WebSocket(二) -- 使用原生webSocket实现一个简单的聊天
  2. (2016年8月2号) 台风 从零开始
  3. 学微服务必经之路——Nacos新手入门(下)
  4. 五年级计算机绘画作品,五年级儿童节绘画作品大全
  5. 推荐一个下载神器(官网资料下载必备)
  6. 【生活工作经验 五】如何有效的跨团队协作
  7. 随笔-浅谈技术核心竞争力
  8. 5.29 阅文集团一面
  9. 手机维修基础 常见故障分析㈢
  10. “金银花露”是夏令保健清凉饮料 养生专属!