爬虫又称为网页蜘蛛,是一种程序或脚本。

但重点在于,它能够按照一定的规则,自动获取网页信息。

爬虫的基本原理——通用框架

1.挑选种子URL;

2.讲这些URL放入带抓取的URL列队;

3.取出带抓取的URL,下载并存储进已下载网页库中。此外,讲这些URL放入带抓取URL列队,进入下一循环。

4.分析已抓取列队中的URL,并且将URL放入带抓取URL列队,从而进去下一循环。

爬虫获取网页信息和人工获取信息,其实原理是一致的。

如我们要获取电影的“评分”信息

人工操作步骤:

1.获取电影信息的网页;

2.定位(找到)要评分信息的位置;

3.复制、保存我们想要的评分数据。

爬虫操作步骤:

1.请求并下载电影页面信息;

2.解析并定位评分信息;

3.保存评分数据。

爬虫的基本流程

简单来说,我们向服务器发送请求后,会得到返回的页面,通过解析页面后,我们可以抽取我们想要的那部分信息,并存储在指定文档或数据库中,这样,我们想要的信息会被我们“爬”下来了。

python中用于爬虫的包很多,如bs4,urllib,requests等等。这里我们用requests+xpath的方式,因为简单易学,像BeautifulSoup还是有点难的。

下面我们就使用requests和xpath来爬取豆瓣电影中的“电影名”、“导演”、“演员”、“评分”等信息。

安装requests和lxml库:

1

2

pip install requests

pip install lxml

一、导入模块

1

2

3

4

#-*- coding:utf-8 -*-

import requests

from lxml import etree

import time #这里导入时间模块,以免豆瓣封你IP

二、获取豆瓣电影目标网页并解析

爬取豆瓣电影《神秘巨星》上的一些信息,地址

https://movie.douban.com/subject/26942674/?from=showing

1

2

3

4

5

6

7

8

9

#-*- coding:utf-8 -*-

import requests

from lxml import etree

import time 

url = 'https://movie.douban.com/subject/26942674/'

data = requests.get(url).text

s=etree.HTML(data)

#给定url并用requests.get()方法来获取页面的text,用etree.HTML()

#来解析下载的页面数据“data”。

1.获取电影名称。

获取电影的xpath信息并获得文本

1

s.xpath('元素的xpath信息/text()')

这里的xpath信息要手动获取,获取方式如下:

1.如果你是用谷歌浏览器的话,鼠标“右键”–>“检查元素”;

2.Ctrl+Shift+C将鼠标定位到标题;

3.“右键”–>“Copy”–>“Copy Xpath”就可以复制xpath。

这样,我们就把电影标题的xpath信息复制下来了。

1

//*[@id="content"]/h1/span[1]

放到代码中并打印信息

1

2

3

4

5

6

7

8

9

10

#-*- coding:utf-8 -*-

import requests

from lxml import etree

import time

url = 'https://movie.douban.com/subject/26942674/'

data = requests.get(url).text

s=etree.HTML(data)

 

film_name = s.xpath('//*[@id="content"]/h1/span[1]/text()')

print("电影名:",film_name)

这样,我们爬取豆瓣电影中《神秘巨星》的“电影名称”信息的代码已经完成了,可以在eclipse中运行代码。

得到如下结果:

1

电影名: ['神秘巨星 Secret Superstar']

OK,迈出了第一步,我们继续抓取导演、主演、评分;

1

2

3

4

5

6

7

film_name=s.xpath('//*[@id="content"]/h1/span[1]/text()')#电影名

director=s.xpath('//*[@id="info"]/span[1]/span[2]/a/text()')#编剧

actor1=s.xpath('//*[@id="info"]/span[3]/span[2]/a[1]/text()')#主演1

actor2=s.xpath('//*[@id="info"]/span[3]/span[2]/a[2]/text()')#主演2

actor3=s.xpath('//*[@id="info"]/span[3]/span[2]/a[3]/text()')#主演3

actor4=s.xpath('//*[@id="info"]/span[3]/span[2]/a[4]/text()')#主演4

movie_time=s.xpath('//*[@id="info"]/span[13]/text()')#片长

观察上面的代码,发现获取不同主演时,区别只在于“a[x]”中“x”的值不同。实际上,要一次性获取所有主演信息时,用不加数字的“a”即可获取。

如下:

1

actors = s.xpath('//*[@id="info"]/span[3]/span[2]/a/text()')#所有主演

所以我们修改好的完整代码如下:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

#-*- coding:utf-8 -*-

import requests

from lxml import etree

import time

url1 = 'https://movie.douban.com/subject/26942674/'

data = requests.get(url1).text

s=etree.HTML(data)

 

film_name=s.xpath('//*[@id="content"]/h1/span[1]/text()')#电影名

director=s.xpath('//*[@id="info"]/span[1]/span[2]/a/text()')#编剧

actor=s.xpath('//*[@id="info"]/span[3]/span[2]/a/text()')#主演

movie_time=s.xpath('//*[@id="info"]/span[13]/text()')#片长

#由于导演有时候不止一个人,所以我这里以列表的形式输出

ds = []

for d in director:

    ds.append(d)

    

#由于演员不止一个人,所以我这里以列表的形式输出

acs = []

for a in actor:

    acs.append(a)

print ('电影名:',film_name)

print ('导演:',ds)

print ('主演:',acs)

print ('片长:',movie_time)

结果输出:

1

2

3

4

5

电影名: ['神秘巨星 Secret Superstar']

导演: ['阿德瓦·香登']

主演: ['塞伊拉·沃西''梅·维贾''阿米尔·汗''拉杰·阿晶''提斯·沙马''卡比尔·谢赫''法如克·贾法尔'

'马努杰·沙玛''莫娜·安伯加卡尔''尼基塔·阿南德''尚''莫纳利·塔库尔']

片长: ['150分钟']

怎么样,是不是很简单啊。赶快去试试吧~~~

这里顺便补充点基础知识:

Requests常用的七种方法:

目前,我们只需要掌握最常用的requests.get()方法就好了。

requests.get()的使用方法

1

2

3

import requests

url = 'https://www.baidu.com'

data = requests.get(url)#使用get方法发送请求,返回汗网页数据的Response并存储到对象data 中

Repsonse对象的属性:

data.status_code:http请求的返回状态,200表示连接成功;

data.text:返回对象的文本内容;

data.content:猜测返回对象的二进制形式;

data.encoding:返回对象的编码方式;

data.apparent_encoding:响应内容编码方式。
最后注意:光理论是不够的。这里顺便免费送大家一套2020最新python入门到高级项目实战视频教程,可以加助理扣扣:159 60 12 148   免费领取python学习基础课程,以及免费课程权限

如何爬取豆瓣电影?python十分钟搞定相关推荐

  1. Python实现爬取豆瓣电影|python豆瓣全栈爬虫:电影系列全爬虫系统1.0:(信息,短评,影评,海报)|你想爬的都有

    写在前面: 此博客仅用于记录个人学习进度,学识浅薄,若有错误观点欢迎评论区指出.欢迎各位前来交流.(部分材料来源网络,若有侵权,立即删除) 豆瓣电影全系列爬虫系统 免责声明 情况说明 效果展示 主菜单 ...

  2. 爬取豆瓣电影前十页的好评一般差评

    分析一波 爬取的地址:https://movie.douban.com/subject/26588308/comments 分别找出好评.一般.差评的评论: 通过地址栏分析,评论的类型和percent ...

  3. python 怕网页_他文献查到凌晨两点,我用Python十分钟搞定!

    大家好,我是爱学习的趣习君. 对于应届毕业生来说,今年一定是难熬的一年.本来找工作.写论文就已经是两座大山了,还要面临论文无指导的额外压力. 这让我想到了去年毕业的表弟,当时他为了完成论文,摔烂了三个 ...

  4. python知网查重多少钱_他文献查到凌晨两点,我用Python十分钟搞定!

    大家好,我是爱学习的趣习君. 对于应届毕业生来说,今年一定是难熬的一年.本来找工作.写论文就已经是两座大山了,还要面临论文无指导的额外压力. 这让我想到了去年毕业的表弟,当时他为了完成论文,摔烂了三个 ...

  5. python爬取豆瓣电影信息_Python爬虫入门 | 爬取豆瓣电影信息

    这是一个适用于小白的Python爬虫免费教学课程,只有7节,让零基础的你初步了解爬虫,跟着课程内容能自己爬取资源.看着文章,打开电脑动手实践,平均45分钟就能学完一节,如果你愿意,今天内你就可以迈入爬 ...

  6. python爬虫爬取豆瓣电影信息城市_Python爬虫入门 | 2 爬取豆瓣电影信息

    这是一个适用于小白的Python爬虫免费教学课程,只有7节,让零基础的你初步了解爬虫,跟着课程内容能自己爬取资源.看着文章,打开电脑动手实践,平均45分钟就能学完一节,如果你愿意,今天内你就可以迈入爬 ...

  7. python爬虫电影信息_Python爬虫入门 | 爬取豆瓣电影信息

    这是一个适用于小白的Python爬虫免费教学课程,只有7节,让零基础的你初步了解爬虫,跟着课程内容能自己爬取资源.看着文章,打开电脑动手实践,平均45分钟就能学完一节,如果你愿意,今天内你就可以迈入爬 ...

  8. python爬虫慕课网利用xpath_python爬虫实践——零基础快速入门(二)爬取豆瓣电影...

    爬虫又称为网页蜘蛛,是一种程序或脚本. 但重点在于,它能够按照一定的规则,自动获取网页信息. 爬虫的基本原理--通用框架 1.挑选种子URL: 2.讲这些URL放入带抓取的URL列队: 3.取出带抓取 ...

  9. python如何爬取豆瓣_Python实战之如何爬取豆瓣电影?本文教你

    爬虫又称为网页蜘蛛,是一种程序或脚本. 但重点在于,它能够按照一定的规则,自动获取网页信息. 爬虫的基本原理--通用框架 1.挑选种子URL: 2.讲这些URL放入带抓取的URL列队: 3.取出带抓取 ...

  10. python爬取豆瓣电影信息数据

    题外话+ 大家好啊,最近自己在做一个属于自己的博客网站(准备辞职回家养老了,明年再战)在家里 琐事也很多, 加上自己 一回到家就懒了(主要是家里冷啊! 广东十几度,老家几度,躲在被窝瑟瑟发抖,) 由于 ...

最新文章

  1. Java按钮哪个方法响应_当用户点击按钮时,Java程序采用什么方法来响应?()
  2. python-数据类型之列表
  3. java使用htmlunit工具抓取js中加载的数据
  4. 【Linux】一步一步学Linux——ac命令(102)
  5. linux判断cpu是否过载,Linux CPU 如何判断忙
  6. 51 nod 1439 互质对(Moblus容斥)
  7. 修改TrustedInstaller权限文件(无法删除文件)
  8. RFID 工作频率的分类
  9. 彼得林奇+《称雄华尔街》
  10. U3D中ShaderForge插件使用系列教程之一
  11. 苹果6系统怎么更新不了_苹果手机系统怎么降级
  12. ABP Vnext 扩展微信小程序授权登录
  13. mysql 占位符 出错_占位符报语法错误
  14. 学计算机应用用画画吗,宝宝学画画
  15. MySQL 数据类型(摘自菜鸟教程)
  16. Cocos2d 官网介绍,新手必看!!!!!!!!!!!!!!!!!!!!!!!!!
  17. w ndows7中桌面图标,七仔教你学习Windows 7:桌面初体验
  18. PBOC MAC 计算算法 实现
  19. Win7启用远程桌面批处理命令
  20. 在 Windows 下编译运行 MUMPS

热门文章

  1. 期末|研究生英语写译教程(提高级/第三版)课后练习答案
  2. 计算机四舍五函数,技巧:在Excel中四舍五入为六至五十的最佳函数算法
  3. 线性代数 06 克莱默法则
  4. shape (0,) 是什么意思
  5. Python使用struct处理二进制(pack和unpack用法)
  6. 使用mysql语句进行多表联查(以三个表为例)
  7. 【资讯】时间的朋友2017跨年演讲全回顾
  8. 初试hive-创建内表(最简单的表),load加载方式简介
  9. CSR CVC4.3.1消回声调试向导
  10. 网络安全实战之植入后门程序