完整代码

import requests
from lxml import etreeBASE_DOMAIN = 'http://www.ygdy8.net'
# url = 'http://www.ygdy8.net/html/gndy/dyzz/list_23_1.html'HEADERS = {'Referer': 'http://www.ygdy8.net/html/gndy/dyzz/index.html','User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
}# 得到详情页面的url
def get_detail_urls(url):response = requests.get(url, headers=HEADERS)text = response.texthtml = etree.HTML(text)detail_urls = html.xpath('//table[@class="tbspan"]//a/@href')detail_urls = map(lambda url: BASE_DOMAIN + url, detail_urls)return detail_urls# 得到页面详情里面的数据
def parse_detail_page(url):movie = {}respoonse = requests.get(url, headers=HEADERS)text = respoonse.content.decode('gbk')html = etree.HTML(text)title = html.xpath('//div[@class="title_all"]//font[@color="#07519a"]/text()')[0]movie['title'] = titlezoomE = html.xpath("//div[@id='Zoom']")[0]cover = zoomE.xpath(".//img/@src")[0]movie['cover'] = coverinfos = zoomE.xpath('.//text()')for index,info in enumerate(infos):if info.startswith('◎年  代'):info = info.replace('◎年  代', "").strip()  # strip是去前后空格movie['year'] = infoelif info.startswith('◎产  地',):info = info.replace('◎产  地', "").strip()movie['country'] = infoelif info.startswith('◎类  别',):info = info.replace('◎类  别', "").strip()movie['category'] = infoelif info.startswith('◎语  言',):info = info.replace('◎语  言', "").strip()movie['language'] = infoelif info.startswith('◎豆瓣评分',):info = info.replace('◎豆瓣评分', "").strip()movie['grade'] = infoelif info.startswith('◎导  演',):info = info.replace('◎导  演', "").strip()movie['director'] = infoelif info.startswith('◎主  演',):info = info.replace('◎主  演', "").strip()actors = [info]for x in range(index+1,len(infos)):actor = infos[x].strip()if actor.startswith("◎简  介"):breakactors.append(actor)movie['actors'] = actorselif info.startswith('◎简  介 ',):info = info.replace('◎简  介 ', "").strip()for x in range(index+1,len(infos)):profile = infos[x].strip()movie['profile'] = profilereturn movie# 得到每一页的url
def spider():base_url = 'http://www.ygdy8.net/html/gndy/dyzz/list_23_{}.html'movies = []for x in range(1, 2):# 第一个for循环,使用来控制7页的url = base_url.format(x)detail_urls = get_detail_urls(url)for detail_url in detail_urls:# 第二个for循环,是用来遍历所有的详情页面movie = parse_detail_page(detail_url)movies.append(movie)return (movies)if __name__ == '__main__':spider()for i in spider():for key, value in i.items():print("{!s}:{!s}".format(key, value))

网页分析

  • 我们要爬取电影天堂最新上传的电影和每一部电影的详情页面
  • 先分析一下页面

    我们检查一下,找到他所在href元素

    然后我们点进去发现,跟我们的所看到的url不同,在基础域名下,所以我们在爬取详情页面的是时候要加上基础域名。

    结合xpath语法 我们可以提取出来每一个详情页面的url
  • 代码如下
BASE_DOMAIN = 'http://www.ygdy8.net'
# url = 'http://www.ygdy8.net/html/gndy/dyzz/list_23_1.html'HEADERS = {'Referer': 'http://www.ygdy8.net/html/gndy/dyzz/index.html','User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
}# 得到详情页面的url
def get_detail_urls(url):response = requests.get(url, headers=HEADERS)text = response.texthtml = etree.HTML(text)detail_urls = html.xpath('//table[@class="tbspan"]//a/@href')detail_urls = map(lambda url: BASE_DOMAIN + url, detail_urls)return detail_urls

因为我们要获取多页的url,所以我们定义的一个获取每一页url的函数

  • 代码如下
def spider():base_url = 'http://www.ygdy8.net/html/gndy/dyzz/list_23_{}.html'movies = []for x in range(1, 2):# 第一个for循环,使用来控制7页的url = base_url.format(x)detail_urls = get_detail_urls(url)for detail_url in detail_urls:# 第二个for循环,是用来遍历所有的详情页面movie = parse_detail_page(detail_url)movies.append(movie)return (movies)

打印一下 OK ,没问题 我们就开始提取每一页详情页面的数据。

提取数据

# 得到页面详情里面的数据
def parse_detail_page(url):movie = {}respoonse = requests.get(url, headers=HEADERS)text = respoonse.content.decode('gbk')html = etree.HTML(text)title = html.xpath('//div[@class="title_all"]//font[@color="#07519a"]/text()')[0]movie['title'] = titlezoomE = html.xpath("//div[@id='Zoom']")[0]cover = zoomE.xpath(".//img/@src")[0]movie['cover'] = coverinfos = zoomE.xpath('.//text()')for index,info in enumerate(infos):if info.startswith('◎年  代'):info = info.replace('◎年  代', "").strip()  # strip是去前后空格movie['year'] = infoelif info.startswith('◎产  地',):info = info.replace('◎产  地', "").strip()movie['country'] = infoelif info.startswith('◎类  别',):info = info.replace('◎类  别', "").strip()movie['category'] = infoelif info.startswith('◎语  言',):info = info.replace('◎语  言', "").strip()movie['language'] = infoelif info.startswith('◎豆瓣评分',):info = info.replace('◎豆瓣评分', "").strip()movie['grade'] = infoelif info.startswith('◎导  演',):info = info.replace('◎导  演', "").strip()movie['director'] = infoelif info.startswith('◎主  演',):info = info.replace('◎主  演', "").strip()actors = [info]for x in range(index+1,len(infos)):actor = infos[x].strip()if actor.startswith("◎简  介"):breakactors.append(actor)movie['actors'] = actorselif info.startswith('◎简  介 ',):info = info.replace('◎简  介 ', "").strip()for x in range(index+1,len(infos)):profile = infos[x].strip()movie['profile'] = profilereturn movie

提取数据遇到的问题

  • 提取年代,语言这些数据的时候我们不需要前面的文字,所以我们用startswith来开始,然后用replace来去除他,最后用strip()来去除前后空格。
  • 在获取主演时 我们发现他是一个列表,所以我们要用for循环来打印出来。
  • 最后返回到一个列表里 打印出来

效果如下

使用requests爬取电影天堂数据,用lxml和Xpath相关推荐

  1. python下载电影天堂_Python爬虫初学:爬取电影天堂数据

    本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理. 以下文章来源于IT共享之家,作者:IT共享者 [一.项目背景] 相信大家都有一种头疼的体验,要下载 ...

  2. requests+xpath爬取电影天堂电影信息

    电影天地网址:http://www.ygdy8.net/html/gndy/china/list_4_1.html 目标: 1.爬取电影天堂的国内电影一栏的所有电影的url 2.进入每个电影的url获 ...

  3. 爬取电影天堂最新电影(xpath结合lxml)

    完整代码 import requests from lxml import etree from openpyxl import WorkbookBASEURL='https://www.dytt8. ...

  4. Python,爬取电影天堂,你觉得怎么样?

    一.爬虫的重要性: 如果把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛.网络蜘蛛通过网页的链接地址来寻找网页,从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它 ...

  5. 爬虫学习(一)---爬取电影天堂下载链接

    欢迎加入python学习交流群 667279387 爬虫学习 爬虫学习(一)-爬取电影天堂下载链接 爬虫学习(二)–爬取360应用市场app信息 主要利用了python3.5 requests,Bea ...

  6. python爬电影天堂_python爬虫爬取电影天堂电影

    python爬虫爬取电影天堂电影?本项目实现一个简单的爬虫,通过requests和BeautifulSoup爬取电影天堂电影信息,包括片名.年代.产地.类别.语言.海报链接和视频链接等内容.pytho ...

  7. python 爬取_Python爬取电影天堂

    前言: 本文非常浅显易懂,可以说是零基础也可快速掌握.如有疑问,欢迎留言,笔者会第一时间回复.本文代码存于github 一.爬虫的重要性: 如果把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来 ...

  8. scrapy初步-简单静态爬虫(爬取电影天堂所有电影)

    之前用java写过一个简单的爬取电影天堂信息的爬虫,后来发现用python写这种简单的爬虫程序更简单,异步网络框架在不使用多线程和多进程的情况下也能增加爬取的速度,目前刚开始学scrapy,用这个写了 ...

  9. python爬取电影天堂的下载链接

    python爬取电影天堂dytt8的下载链接 电影天堂下载链接都是magnet的,搞下来想下就下没有广告 建一个main.py 一个一个挨着去爬肯定慢啊,建一个多线程的去爬 mui.py 多线程有可能 ...

  10. python爬电影_使用Python多线程爬虫爬取电影天堂资源

    最近花些时间学习了一下Python,并写了一个多线程的爬虫程序来获取电影天堂上资源的迅雷下载地址,代码已经上传到GitHub上了,需要的同学可以自行下载.刚开始学习python希望可以获得宝贵的意见. ...

最新文章

  1. 爬虫书籍-Python网络爬虫权威指南OCR库 NLTK 数据清洗 BeautifulSoup Lambda表达式 Scrapy 马尔可夫模型
  2. 用jk触发器构成二分频电路_实例分析,轻松掌握声控照明电路
  3. python爬百度翻译-Python爬取百度翻译(利用json提取数据)
  4. AspectJ在Android中使用(AOP)
  5. echart实例数据 本地加载_JVM 类加载概述
  6. go 根据输入类型执行对应的方法_Go 每日一库之 sqlc
  7. linux下weblogic12c建域,三、WebLogic 12C集群部署-创建域
  8. vue element dialog 对话框
  9. (转)LUA与python根本就不具有可比性
  10. 2018上半年区块链安全报告
  11. Eprime 倒计时代码
  12. 如何用ESP8266/ESP8285做一个WIFI中继(WiFi信号放大器)
  13. PS制作logo图片
  14. vue input 只允许输入整数、整数和小数(保留小数点后两位)
  15. mysql中文显示标题列_我在数据库中建立的列名为英文的,但标题是中文的,在编程界面中显示的是英文的列名,怎样设置成中文的?...
  16. 自制APP连接远程服务器
  17. Android开发 Flash Ane创建和使用
  18. 设计灵感:12个App的登录注册界面案例参考
  19. labview 控件变透明
  20. 移动通信网络规划:频谱划分

热门文章

  1. 5.3 - 抽屉新热榜
  2. 百度产品经理探秘:需求把握和正确决策
  3. jsp超链接中怎么跳转页面跳转_JSP跳转页面汇总
  4. 鸿鹄元数正式加入openGauss社区
  5. 2019 年终总结,168 篇,已归类!
  6. 读取计算机内存卡,手机内存卡无法读取怎么办 读取手机内存卡详细方法【详细步骤】...
  7. align latex 使用_Latex中使用align来对齐多行公式的排版技巧 | 学步园
  8. 重建致远OA系统的步骤
  9. 机器学习必备知识点 之 样本方差与实际方差
  10. zabbix 监控h3c 10508 交换机光衰值