前言

本文的文字及图片来源于网络且仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我以作处理。

基本开发环境

  • Python 3.6
  • Pycharm

相关模块的使用

  • requests
  • parsel
  • csv

安装Python并添加到环境变量,pip安装需要的相关模块即可。

爬虫基本思路

一、明确需求

爬取豆瓣Top250排行电影信息
  • 电影名字
  • 导演、主演
  • 年份、国家、类型
  • 评分、评价人数
  • 电影简介

二、发送请求

Python中的大量开源的模块使得编码变的特别简单,我们写爬虫第一个要了解的模块就是requests。

请求url地址,使用get请求,添加headers请求头,模拟浏览器请求,网页会给你返回response对象

#模拟浏览器发送请求
import requests
url = 'https://movie.douban.com/top250'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
print(response)

200是状态码,表示请求成功

2xx (成功)
3xx (重定向)
4xx(请求错误)
5xx(服务器错误)

常见状态码

200 - 服务器成功返回网页,客户端请求已成功。
302 - 对象临时移动。服务器目前从不同位置的网页响应请求,但请求者应继续使用原有位置来进行以后的请求。
304 - 属于重定向。自上次请求后,请求的网页未修改过。服务器返回此响应时,不会返回网页内容。
401 - 未授权。请求要求身份验证。 对于需要登录的网页,服务器可能返回此响应。
404 - 未找到。服务器找不到请求的网页。
503 (服务不可用) 服务器目前无法使用(由于超载或停机维护)。通常,这只是暂时状态。

三、获取数据

import requests
url = 'https://movie.douban.com/top250'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
print(response.text)

requests.get(url=url, headers=headers) :请求网页返回的是response对象

response.text: 获取网页文本数据

response.json: 获取网页json数据

这两个是用的最多的,当然还有其他的

四、解析数据

常用解析数据方法: 正则表达式、css选择器、xpath、lxml…

常用解析模块:bs4、parsel…

我们使用的是 parsel 无论是在之前的文章,还是说之后的爬虫系列文章,我都会使用 parsel 这个解析库,无它就是觉得它比bs4香。

parsel 是第三方模块,pip install parsel 安装即可

parsel 可以使用 css、xpath、re解析方法

所有的电影信息都包含在 li 标签当中。

#把 response.text 文本数据转换成 selector 对象
selector = parsel.Selector(response.text)
#获取所有li标签
lis = selector.css('.grid_view li')
#遍历出每个li标签内容
for li in lis:# 获取电影标题 hd 类属性 下面的 a 标签下面的 第一个span标签里面的文本数据 get()输出形式是 字符串获取一个  getall() 输出形式是列表获取所有title = li.css('.hd a span:nth-child(1)::text').get()   # get()输出形式是 字符串movie_list = li.css('.bd p:nth-child(1)::text').getall()     # getall() 输出形式是列表star = movie_list[0].strip().replace('\xa0\xa0\xa0', '').replace('/...', '')movie_info = movie_list[1].strip().split('\xa0/\xa0')   # ['1994', '美国', '犯罪 剧情']movie_time = movie_info[0]  # 电影上映时间movie_country = movie_info[1]   # 哪个国家的电影movie_type = movie_info[2]     # 什么类型的电影rating_num = li.css('.rating_num::text').get()   # 电影评分people = li.css('.star span:nth-child(4)::text').get()   # 评价人数summary = li.css('.inq::text').get()   # 一句话概述dit = {'电影名字': title,'参演人员': star,'上映时间': movie_time,'拍摄国家': movie_country,'电影类型': movie_type,'电影评分': rating_num,'评价人数': people,'电影概述': summary,}# pprint 格式化输出模块pprint.pprint(dit)

以上的知识点使用到了

  1. parsel 解析模块的方法
  2. for 循环
  3. css 选择器
  4. 字典的创建
  5. 列表取值
  6. 字符串的方法:分割、替换等
  7. pprint 格式化输出模块

所以扎实基础是很有必要的。不然你连代码都不知道为什么要这样写。

五、保存数据(数据持久化)

常用的保存数据方法 with open

像豆瓣电影信息这样的数据,保存到Excel表格里面会更好。

所以需要使用到 csv 模块

#csv模块保存数据到Excel
f = open('豆瓣电影数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['电影名字', '参演人员', '上映时间', '拍摄国家', '电影类型','电影评分', '评价人数', '电影概述'])
csv_writer.writeheader()    # 写入表头


这就是爬取了数据保存到本地了。这只是一页的数据,爬取数据肯定不只是爬取一页数据。想要实现多页数据爬取,就要分析网页数据的url地址变化规律。

可以清楚看到每页url地址是 25 递增的,使用for循环实现翻页操作

for page in range(0, 251, 25):url = f'https://movie.douban.com/top250?start={page}&filter='

完整实现代码

""""""
import pprint
import requests
import parsel
import csv
'''
1、明确需求:爬取豆瓣Top250排行电影信息电影名字导演、主演年份、国家、类型评分、评价人数电影简介
'''
#csv模块保存数据到Excel
f = open('豆瓣电影数据.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['电影名字', '参演人员', '上映时间', '拍摄国家', '电影类型','电影评分', '评价人数', '电影概述'])csv_writer.writeheader()    # 写入表头#模拟浏览器发送请求
for page in range(0, 251, 25):url = f'https://movie.douban.com/top250?start={page}&filter='headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'}response = requests.get(url=url, headers=headers)# 把 response.text 文本数据转换成 selector 对象selector = parsel.Selector(response.text)# 获取所有li标签lis = selector.css('.grid_view li')# 遍历出每个li标签内容for li in lis:# 获取电影标题 hd 类属性 下面的 a 标签下面的 第一个span标签里面的文本数据 get()输出形式是 字符串获取一个  getall() 输出形式是列表获取所有title = li.css('.hd a span:nth-child(1)::text').get()   # get()输出形式是 字符串movie_list = li.css('.bd p:nth-child(1)::text').getall()     # getall() 输出形式是列表star = movie_list[0].strip().replace('\xa0\xa0\xa0', '').replace('/...', '')movie_info = movie_list[1].strip().split('\xa0/\xa0')   # ['1994', '美国', '犯罪 剧情']movie_time = movie_info[0]  # 电影上映时间movie_country = movie_info[1]   # 哪个国家的电影movie_type = movie_info[2]     # 什么类型的电影rating_num = li.css('.rating_num::text').get()   # 电影评分people = li.css('.star span:nth-child(4)::text').get()   # 评价人数summary = li.css('.inq::text').get()   # 一句话概述dit = {'电影名字': title,'参演人员': star,'上映时间': movie_time,'拍摄国家': movie_country,'电影类型': movie_type,'电影评分': rating_num,'评价人数': people,'电影概述': summary,}pprint.pprint(dit)csv_writer.writerow(dit)

实现效果


【Python爬虫】新手入门案例教学(一):爬取豆瓣电影排行有关信息相关推荐

  1. 从入门到入土:python爬虫|scrapy初体验|安装教程|爬取豆瓣电影短评相关信息(昵称,内容,时间和评分)

    此博客仅用于记录个人学习进度,学识浅薄,若有错误观点欢迎评论区指出.欢迎各位前来交流.(部分材料来源网络,若有侵权,立即删除) 本人博客所有文章纯属学习之用,不涉及商业利益.不合适引用,自当删除! 若 ...

  2. python 爬虫实战六:用 selenium 爬取豆瓣电影

    今天帮朋友爬取豆瓣电影的数据,以便进行社交网络分析. 首先打开豆瓣电影,然后点击 分类 ,选择要爬取的特定电影 这里以国产喜剧片为例:依次点击 电影.喜剧.中国大陆 然后点击一个小的列表按键 找到我们 ...

  3. Python爬虫小白教程(二)—— 爬取豆瓣评分TOP250电影

    文章目录 前言 安装bs4库 网站分析 获取页面 爬取页面 页面分析 其他页面 爬虫系列 前言 经过上篇博客Python爬虫小白教程(一)-- 静态网页抓取后我们已经知道如何抓取一个静态的页面了,现在 ...

  4. 爬取豆瓣电影Top250影片信息

    爬取豆瓣电影Top250影片信息 查看影片的详细信息 爬取过程 需安装的包 确定爬取地址 发送请求头 解析数据 保存数据 完整代码 查看影片的详细信息 进入豆瓣电影Top250,选择某一影片,右击,选 ...

  5. 爬取豆瓣电影排行top250

    功能描述V1.0: 爬取豆瓣电影排行top250 功能分析: 使用的库 1.time 2.json 3.requests 4.BuautifulSoup 5.RequestException 上机实验 ...

  6. Python爬虫新手入门教学(一):爬取豆瓣电影排行信息

    前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理. Python爬虫.数据分析.网站开发等案例教程视频免费在线观看 https://space. ...

  7. python爬虫慕课网利用xpath_python爬虫实践——零基础快速入门(二)爬取豆瓣电影...

    爬虫又称为网页蜘蛛,是一种程序或脚本. 但重点在于,它能够按照一定的规则,自动获取网页信息. 爬虫的基本原理--通用框架 1.挑选种子URL: 2.讲这些URL放入带抓取的URL列队: 3.取出带抓取 ...

  8. 利用python爬取豆瓣音乐_Python爬虫小白入门(七)爬取豆瓣音乐top250

    抓取目标: 豆瓣音乐top250的歌名.作者(专辑).评分和歌曲链接 使用工具: requests + lxml + xpath. 我认为这种工具组合是最适合初学者的,requests比python自 ...

  9. [ Python ] 爬虫类库学习之 requests,爬取豆瓣喜剧电影排行榜

    requests 文档:http://cn.python-requests.org/zh_CN/latest/ 安装:pip --timeout=100 install requests [ pyth ...

  10. 爬虫入门经典(四) | 如何爬取豆瓣电影Top250

      大家好,我是不温卜火,是一名计算机学院大数据专业大三的学生,昵称来源于成语-不温不火,本意是希望自己性情温和.作为一名互联网行业的小白,博主写博客一方面是为了记录自己的学习过程,另一方面是总结自己 ...

最新文章

  1. 1.VMware Workstation 12 中安装CentOS
  2. Codeforces Round #401 (Div. 2) D. Cloud of Hashtags
  3. flex java框架_fleXive——JavaEE框架
  4. codeforces1552 D. Array Differentiation(思维+暴力)
  5. C#驱动级模拟按键操作
  6. java缓存管理器_使用@EnableCaching的Spring Boot默认缓存管理器
  7. [收藏]DIV中控制超级链接的方法
  8. 这十个Python实战项目,让你瞬间读懂Python!
  9. 学术蓝答辩PPT模板
  10. Nginx 去除多斜杠 (//)
  11. PS教程 | 美女面部剥落碎片效果
  12. 【计算机网络】—什么是蜂窝移动网络?
  13. php记录sql语句,sql语句记录
  14. 【游戏运营】【实战】首充分析——恋与制作人
  15. native react 图片裁剪_react-native Android截屏长图
  16. activiti7笔记
  17. 卡牌游戏算法原理、代码
  18. 周六 第八章 iptable
  19. k8s学习一:centos7单机安装k8s
  20. iCON艾肯五代声卡Dyna版本驱动(全系列)

热门文章

  1. java霸王别姬游戏_霸王别姬_JAVA游戏免费版下载_7723手机游戏[www.7723.cn]
  2. 教你如何使用u盘安装Linux系统,手把手教你如何使用u盘安装Linux系统
  3. Android集成LAME库,实现pcm转mp3
  4. 2020 - 2021个人年度总结
  5. 苹果mac启动台变成问号_启动 Mac 时显示闪烁的问号是什么原因?如何解决?
  6. ASP.NET 新闻发布网站
  7. idea 类存在,但是报错
  8. 通信(一) 串口通信
  9. c语言学习体会300字,大一个人总结自我评价300字_大学生学年自我鉴定评价
  10. 加密保护软件 WinLicense 注册常见问题(二)