阿里巴巴python招聘_python阿里巴巴招聘网站爬虫
写了个阿里巴巴招聘网站爬虫,这次是存在csv文件里,小伙伴们可以对比一下~
import requests,json,csv
#写入csv文件中
list=[]
csv_file=open('阿里巴巴招聘.csv','w+',newline='',encoding='utf=8')
writer=csv.writer(csv_file)
list_head=['职位名称','部门','是否招聘','学历','大类','小类','工作地','工作经历','要求','职责']
writer.writerow(list_head)
#爬虫
keyword=str(input('请输入职位关键字:'))
url='https://job.alibaba.com/zhaopin/socialPositionList/doList.json'
headers={
'Referer': 'https://job.alibaba.com/zhaopin/positionList.htm?spm=a2obv.11875463.0.0.2ac23a5dSb7Wbw',
}
for p in range(10):
p=p+1
data={
'MIME 类型': 'application/x-www-form-urlencoded; charset=UTF-8',
'pageSize': '10',
't': '0.9218667109769481',
'keyWord': keyword,
'location'
'second'
'first'
'pageIndex': str(p)
}
cookies={
'Cookie': ' isg=BM7OlPeDH1cyaKt12PikCz_-HaKQT5JJOm4ATvgXOlGNW2y1at3VWbNdkwc32Iph; l=cBLBoTMuqFP2KvuXBOCanurza77OSId4YuPzaNbMi_5BG6L1xV_Okk5T4Fp6csWFGhLk4nXUfzeT6FibJPDjtQPl2eGJXZ5..; CNZZDATA1000004769=1840857478-1567157075-%7C1567549123; tmp0=6vzoNBZKbkA%2BBLyFAxc%2F%2B5%2FiZdeVqJ%2BQe1wqEFgcolw%2Bv%2BNF%2BSOMmjyEAbaxmDieCW6DN%2FW1NgF3ABlBHs%2BQVVV2hLJ2KNwMGtDuyycdGSJ6QuN6svOgAsp7j9AZ0WOupUzUlbSrvipNMHgwXXNByNszrL0xUXa2GZogaVwPGKi7SGNCFAAV69vqvj6X2DlVaPMaTpJ3iqH20Tnd%2FLw7QVdbcEn3PhXzGaBl3yQmiW9LYRA8MDOBcbOWVZJ1lrwS8QCt4%2FQhkY70vFtrIvKAQhtb4iXr6OkIZI793Ao1syY%3D; _hvn_login=0; csg=87ae08c0; _tb_token_=eeed45e87e5e7; cookie2=14659eb4996e47c896f304074d300557; JSESSIONID=JFYJXFOV-FDC82NZA4NVS98Y8CX7N3-KRA0E30K-9MTB2; t=81b209fbe498754d386d92ccdaa8ff67; UM_distinctid=16ce1eb6c4342c-05f3012e7a8dcb8-3f616f4a-13c680-16ce1eb6c443e1; cna=ft7vFfKyZQACAbeW36y9ZReA'
}
res_post=requests.post(url,headers=headers,data=data,cookies=cookies)
res_text=res_post.text
res_dict=json.loads(res_text)
positions=res_dict['returnValue']['datas']
for position in positions:
requirement=position['requirement']
departmentName=position['departmentName'][5:]
workExperience=position['workExperience']
description=position['description']
name=position['name']
degree=position['degree']
firstCategory=position['firstCategory']
secondCategory=position['secondCategory']
workLocation=position['workLocation']
status=position['status']
list_content=[name,departmentName,status,degree,firstCategory,secondCategory,workLocation,workExperience,requirement,description]
list.append(list_content)
writer.writerow(list_content)
csv_file.close()
print('爬取成功!')
阿里巴巴python招聘_python阿里巴巴招聘网站爬虫相关推荐
- python爬虫网页数据案例_python+vue实现网站爬虫数据分析案例
项目描述 基础环境:python + flask + vue + element-ui + echarts python_spiders -- 爬虫后台项目 python_spiders_web -- ...
- 阿里巴巴python教程_阿里巴巴工程师内部的一份全新Python学习清单,你一定可以用得到...
站在风口上,猪都能飞起来.人工智能风口,让Pyhon这门胶水语言转变成非常火的网红语言. 编程功力深厚的程序员花一两个星期就能上手Python,而一些新手程序员花几个月就可以上手. 学编程,用Pyth ...
- 基于Python的招聘网站爬虫及可视化的设计与实现
摘 要 I Abstract II 引 言 1 第1章 课题概述 2 1.1 课题内容 2 1.2 课题背景 2 1.3 课题意义 3 1.4 运行环境 3 1.5 相关技术 3 1.5.1 Pyth ...
- 【基于Python的招聘网站爬虫及可视化的设计与实现】
完整下载:基于Python的招聘网站爬虫及可视化的设计与实现.docx 目录 目录 2 摘要 3 关键词 3 第一章 绪论 3 1.1 研究背景 3 1.2 研究意义 4 1.3 研究目的 6 1.4 ...
- scrapy+招聘网站爬虫笔记
scrapy+招聘网站爬虫笔记 先看看要爬的网站:https://sou.zhaopin.com/?jl=719&kw=%E8%8D%AF%E7%89%A9 目的:获取每个城市的时间.区域.城 ...
- 招聘网站爬虫及可视化分析
1 简介 今天向大家介绍一个帮助往届学生完成的毕业设计项目,招聘网站爬虫及可视化分析. 计算机毕业生设计,课程设计需要帮助的可以找我 代码 https://pan.baidu.com/s/1Cdxrl ...
- 招聘网站代码模板 mysql_招聘网站爬虫模板
招聘网站爬虫模板 项目的创建 项目的设置 中间件的理解与使用 selenium的基本使用 爬虫项目的创建: scrapy startproject spiderName cd spiderName s ...
- 微软 python 招聘_Python 之父入职微软要搞事?!送几本 Python 书压压惊!
联合电子工业出版社送出6本Python书籍: 1.<Visual Studio Code 权威指南> 本书由浅入深地介绍了Visual Studio Code的各个方面,主要包括Visua ...
- 阿里巴巴2016算法岗实习招聘(西安)在线笔试整理
阿里巴巴2016算法岗实习招聘(西安)在线笔试整理 2016年4月20日晚19点到21点,阿里巴巴2016算法岗实习招聘(西安)部分在线笔试题整理. 单项选择题 1.某体校选择校服,每套校服都包括短袖 ...
最新文章
- FPGA硬件构成详解
- bagging 与boosting
- RxSwift之深入解析Subject的使用和实现原理
- 递归判断一个数是否递增
- 女人,向《奋斗》中的夏琳米莱们学习什么
- 如何将多个文件捆绑成一个可执行文件
- 【Linux】详解Linux中3个文件查找相关命令
- JMeter循环控制器循环次数使用变量控制注意事项
- java 136年以后的时间_136年清明查询 - 136年清明是几号 - 136年清明具体时间
- python常用库大全文库_Python库参考手册
- Adobe Flash Player已不再受支持 解决方案
- 医学知识-CT的窗宽窗位
- 最快路由器服务器地址,路由器中radius服务器IP地址要用什么样的IP
- Vue中的 Filters 过滤器
- 快速开发平台——运用它就可以高效率开发出合乎自己需求的应用软件。
- Mac 卸载重装 brew
- acr38u PHP调用,ACS ACR38U-N1智能卡读卡器驱动
- 无服务器:S3 – S3BucketPermissions –操作不适用于语句中的任何资源
- Scanner in = new Scanner(System.in);是什么意思?
- win7 使用mklink瘦身C盘空间