python爬虫教材推荐 豆瓣_Python爬虫入门教程:豆瓣Top电影爬取
基本开发环境Python 3.6
Pycharm
相关模块的使用requests
parsel
csv
安装Python并添加到环境变量,pip安装需要的相关模块即可。
爬虫基本思路
一、明确需求
爬取豆瓣Top250排行电影信息电影名字
导演、主演
年份、国家、类型
评分、评价人数
电影简介
二、发送请求
Python中的大量开源的模块使得编码变的特别简单,我们写爬虫第一个要了解的模块就是requests。
请求url地址,使用get请求,添加headers请求头,模拟浏览器请求,网页会给你返回response对象# 模拟浏览器发送请求import requests
url = 'https://movie.douban.com/top250'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'}
response = requests.get(url=url, headers=headers)print(response)
200是状态码,表示请求成功
2xx (成功)
3xx (重定向)
4xx(请求错误)
5xx(服务器错误)
常见状态码200 - 服务器成功返回网页,客户端请求已成功。
302 - 对象临时移动。服务器目前从不同位置的网页响应请求,但请求者应继续使用原有位置来进行以后的请求。
304 - 属于重定向。自上次请求后,请求的网页未修改过。服务器返回此响应时,不会返回网页内容。
401 - 未授权。请求要求身份验证。 对于需要登录的网页,服务器可能返回此响应。
404 - 未找到。服务器找不到请求的网页。
503 (服务不可用) 服务器目前无法使用(由于超载或停机维护)。通常,这只是暂时状态。
三、获取数据import requests
url = 'https://movie.douban.com/top250'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'}
response = requests.get(url=url, headers=headers)print(response.text)
requests.get(url=url, headers=headers) 请求网页返回的是response对象
response.text: 获取网页文本数据
response.json: 获取网页json数据
这两个是用的最多的,当然还有其他的apparent_encoding cookies history
iter_lines okclose
elapsed is_permanent_redirect json
raise_for_status connection encoding
is_redirect links raw
content headers iter_content
next reasonurl
四、解析数据
常用解析数据方法: 正则表达式、css选择器、xpath、lxml…
常用解析模块:bs4、parsel…
我们使用的是 parsel 无论是在之前的文章,还是说之后的爬虫系列文章,我都会使用 parsel 这个解析库,无它就是觉得它比bs4香。
parsel 是第三方模块,pip install parsel 安装即可
parsel 可以使用 css、xpath、re解析方法
所有的电影信息都包含在 li 标签当中。# 把 response.text 文本数据转换成 selector 对象
selector = parsel.Selector(response.text)# 获取所有li标签
lis = selector.css('.grid_view li')# 遍历出每个li标签内容for li in lis:# 获取电影标题 hd 类属性 下面的 a 标签下面的 第一个span标签里面的文本数据 get()输出形式是 字符串获取一个 getall() 输出形式是列表获取所有
title = li.css('.hd a span:nth-child(1)::text').get() # get()输出形式是 字符串
movie_list = li.css('.bd p:nth-child(1)::text').getall() # getall() 输出形式是列表
star = movie_list[0].strip().replace('\xa0\xa0\xa0', '').replace('/...', '')
movie_info = movie_list[1].strip().split('\xa0/\xa0') # ['1994', '美国', '犯罪 剧情']
movie_time = movie_info[0] # 电影上映时间
movie_country = movie_info[1] # 哪个国家的电影
movie_type = movie_info[2] # 什么类型的电影
rating_num = li.css('.rating_num::text').get() # 电影评分
people = li.css('.star span:nth-child(4)::text').get() # 评价人数
summary = li.css('.inq::text').get() # 一句话概述
dit = {'电影名字': title,'参演人员': star,'上映时间': movie_time,'拍摄国家': movie_country,'电影类型': movie_type,'电影评分': rating_num,'评价人数': people,'电影概述': summary,}# pprint 格式化输出模块
pprint.pprint(dit)
以上的知识点使用到了parsel 解析模块的方法
for 循环
css 选择器
字典的创建
列表取值
字符串的方法:分割、替换等
pprint 格式化输出模块
所以扎实基础是很有必要的。不然你连代码都不知道为什么要这样写。
五、保存数据(数据持久化)
常用的保存数据方法 with open
像豆瓣电影信息这样的数据,保存到Excel表格里面会更好。
所以需要使用到 csv 模块# csv模块保存数据到Excel
f = open('豆瓣电影数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['电影名字', '参演人员', '上映时间', '拍摄国家', '电影类型', '电影评分', '评价人数', '电影概述'])
csv_writer.writeheader() # 写入表头
这就是爬取了数据保存到本地了。这只是一页的数据,爬取数据肯定不只是爬取一页数据。想要实现多页数据爬取,就要分析网页数据的url地址变化规律。
可以清楚看到每页url地址是 25 递增的,使用for循环实现翻页操作for page in range(0, 251, 25):
url = f'https://movie.douban.com/top250?start={page}&filter='
完整实现代码""""""import pprintimport requestsimport parselimport csv'''
1、明确需求:
爬取豆瓣Top250排行电影信息
电影名字
导演、主演
年份、国家、类型
评分、评价人数
电影简介
'''# csv模块保存数据到Excel
f = open('豆瓣电影数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['电影名字', '参演人员', '上映时间', '拍摄国家', '电影类型', '电影评分', '评价人数', '电影概述'])
csv_writer.writeheader() # 写入表头# 模拟浏览器发送请求for page in range(0, 251, 25):
url = f'https://movie.douban.com/top250?start={page}&filter='
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'}
response = requests.get(url=url, headers=headers)# 把 response.text 文本数据转换成 selector 对象
selector = parsel.Selector(response.text)# 获取所有li标签
lis = selector.css('.grid_view li')# 遍历出每个li标签内容for li in lis:# 获取电影标题 hd 类属性 下面的 a 标签下面的 第一个span标签里面的文本数据 get()输出形式是 字符串获取一个 getall() 输出形式是列表获取所有
title = li.css('.hd a span:nth-child(1)::text').get() # get()输出形式是 字符串
movie_list = li.css('.bd p:nth-child(1)::text').getall() # getall() 输出形式是列表
star = movie_list[0].strip().replace('\xa0\xa0\xa0', '').replace('/...', '')
movie_info = movie_list[1].strip().split('\xa0/\xa0') # ['1994', '美国', '犯罪 剧情']
movie_time = movie_info[0] # 电影上映时间
movie_country = movie_info[1] # 哪个国家的电影
movie_type = movie_info[2] # 什么类型的电影
rating_num = li.css('.rating_num::text').get() # 电影评分
people = li.css('.star span:nth-child(4)::text').get() # 评价人数
summary = li.css('.inq::text').get() # 一句话概述
dit = {'电影名字': title,'参演人员': star,'上映时间': movie_time,'拍摄国家': movie_country,'电影类型': movie_type,'电影评分': rating_num,'评价人数': people,'电影概述': summary,}
pprint.pprint(dit)
csv_writer.writerow(dit)
实现效果
python爬虫教材推荐 豆瓣_Python爬虫入门教程:豆瓣Top电影爬取相关推荐
- Python爬虫入门教程02:小说爬取
前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理. 前文 01.python爬虫入门教程01:豆瓣Top电影爬取 基本开发环境 Python 3 ...
- python爬虫爬图片教程_Python爬虫入门教程 5-100 27270图片爬取
获取待爬取页面 今天继续爬取一个网站,http://www.27270.com/ent/meinvtupian/ 这个网站具备反爬,so我们下载的代码有些地方处理的也不是很到位,大家重点学习思路,有啥 ...
- Python爬虫入门教程 6-100 蜂鸟网图片爬取之一
1. 蜂鸟网图片简介 国庆假日结束了,新的工作又开始了,今天我们继续爬取一个网站,这个网站为 http://image.fengniao.com/ ,蜂鸟一个摄影大牛聚集的地方,本教程请用来学习,不要 ...
- python手机开发的软件_Python新手入门教程_在手机上就能学习编程的软件
Python新手入门教程_在手机上就能学习编程的软件 很多小伙伴会问:我在学编程,想利用坐地铁坐公交吃饭间隙学编程,在手机上能学编程的软件有哪些?毕竟时间宝贵啊!!哈哈哈!!! 这个问题,在悟空回答的 ...
- Python爬虫入门教程09:多线程爬取表情包图片
前言
- 廖雪峰python3爬虫教程_Scrapy爬虫框架入门教程(1)——爬取廖雪峰老师的博客...
最近一直在学习scrapy,但是网上关于scrapy的教程实在是太少,能找到的教程大多都是基于py2.7/scrapy0.2以下,甚至很多教程都是互相抄袭,连代码都抄漏了好多,更别提各种缩进错误.变量 ...
- WebMagic爬虫入门教程(三)爬取汽车之家的实例-品牌车系车型结构等
本文使用WebMagic爬取汽车之家的品牌车系车型结构价格能源产地国别等:java代码 备注,只是根据url变化爬取的,没有使用爬取script页面具体的数据,也有反爬机制,知识简单爬取html标签 ...
- python 表情包制作工具_python中tkinter模块制作表情包爬取工具遇到的问题
[Python] 纯文本查看 复制代码import tkinter as tk from tkinter.filedialog import askdirectory import requests ...
- python爬虫入门实战---------一周天气预报爬取_Python爬虫入门实战--------一周天气预报爬取【转载】【没有分析...
Python爬虫入门实战--------一周天气预报爬取[转载][没有分析 Python爬虫入门实战--------一周天气预报爬取[转载][没有分析] 来源:https://blog.csdn.ne ...
最新文章
- latex中插入visio矢量图的方法
- Java和甜蜜的科学
- MQTT和HTTP的区别
- ACM算法 -- 数论 -- 开灯关灯问题(数论,整数分解,因子个数,公式推导)
- 三、安装cmake,安装resin ,tars服务,mysql 安装介绍,安装jdk,安装maven,c++ 开发环境安装...
- 苹果发布iOS/iPadOS15.1正式版 新增同播共享等功能
- windows 配置squid反向代理服务器
- 代码检查、走查与评审
- Openv 线性插值
- 送书 | 图解机器学习—算法原理与Python语言实现
- 【纯java语言做RPG游戏】4.用XML导入NPC并与NPC对话
- Misra-C编码规范全解读 - Misra C 概述
- CUDA编程1--GPU内存模型
- 无人出租车江湖:百度出击,安途并进
- 为什么现在大多数服务器使用linux系统区别的一些总结
- [半决赛魔咒] 那些罚失点球的人,恰恰是那些有勇气站在点球前的人。。
- 菜鸟deepin安装Anaconda3教程
- android wifi 框架图,android wifi框架
- edg击败we视频_edg击败we视频_LPL夏季赛:EDG零封V5获三连胜 OMG2-1击败WE
- 微信小程序网络请求异常怎么办_微信小程序网络超时的处理