一、介绍

    本例子用scrapy-splash抓取中广互联网站给定关键字抓取咨询信息。

    给定关键字:打通;融合;电视

    抓取信息内如下:

      1、资讯标题

      2、资讯链接

      3、资讯时间

      4、资讯来源

  二、网站信息

    

    

    

  三、数据抓取

    针对上面的网站信息,来进行抓取

    1、首先抓取信息列表

      抓取代码:sels = site.xpath('//li[@class="content_list clearfix"]')

    2、抓取标题

      首先列表页面,根据标题和日期来判断是否自己需要的资讯,如果是,就今日到资讯对应的链接,来抓取来源,如果不是,就不用抓取了

      抓取代码:titles = sel.xpath('.//div[@class="content_listtext"]/a/h3/text()')

    3、抓取链接

      抓取代码:url = 'http://www.tvoao.com' + str(sel.xpath('.//a/@href')[0].extract())

    4、抓取日期

      抓取代码:strdates = sel.xpath('.//div[@class="listtext_label"]/span/text()')

    5、抓取来源

      抓取代码:sources = site.xpath('//div[@class="headlines_source"]/span[2]/text()')

  

  四、完整代码

  

# -*- coding: utf-8 -*-
import scrapy
from scrapy import Request
from scrapy.spiders import Spider
from scrapy_splash import SplashRequest
from scrapy_splash import SplashMiddleware
from scrapy.http import Request, HtmlResponse
from scrapy.selector import Selector
from scrapy_splash import SplashRequest
from splash_test.items import SplashTestItem
import IniFile
import sys
import os
import re
import timereload(sys)
sys.setdefaultencoding('utf-8')sys.stdout = open('output.txt', 'w')class tvoaoSpider(Spider):name = 'tvoao'configfile = os.path.join(os.getcwd(), 'splash_test\spiders\setting.conf')cf = IniFile.ConfigFile(configfile)information_wordlist = cf.GetValue("section", "information_keywords").split(';')websearch_urls = cf.GetValue("tvoao", "websearchurl").split(';')start_urls = []for url in websearch_urls:start_urls.append(url)# request需要封装成SplashRequestdef start_requests(self):for url in self.start_urls:yield SplashRequest(url, self.parse, args={'wait': '2'})def Comapre_to_days(self,leftdate, rightdate):'''比较连个字符串日期,左边日期大于右边日期多少天:param leftdate: 格式:2017-04-15:param rightdate: 格式:2017-04-15:return: 天数'''l_time = time.mktime(time.strptime(leftdate, '%Y-%m-%d'))r_time = time.mktime(time.strptime(rightdate, '%Y-%m-%d'))result = int(l_time - r_time) / 86400return resultdef date_isValid(self, strDateText):'''判断日期时间字符串是否合法:如果给定时间大于当前时间是合法,或者说当前时间给定的范围内:param strDateText: 四种格式 '2小时前'; '2天前' ; '昨天' ;'2017.2.12 ':return: True:合法;False:不合法'''currentDate = time.strftime('%Y-%m-%d')datePattern = re.compile(r'\d{4}-\d{2}-\d{2}')strDate = re.findall(datePattern, strDateText)if len(strDate) == 1:if self.Comapre_to_days(currentDate, strDate[0]) == 0:return True, currentDatereturn False, ''def parse(self, response):site = Selector(response)sels = site.xpath('//li[@class="content_list clearfix"]')for sel in sels:strdates = sel.xpath('.//div[@class="listtext_label"]/span/text()')if len(strdates)>0:flag, date = self.date_isValid(str(strdates[0].extract()))if flag:titles = sel.xpath('.//div[@class="content_listtext"]/a/h3/text()')if len(titles) > 0:title = str(titles[0].extract())url = 'http://www.tvoao.com' + str(sel.xpath('.//a/@href')[0].extract())for keyword in self.information_wordlist:if title.find(keyword) > -1:yield SplashRequest(url, self.parse_item, args={'wait': '1'},meta={'date': date, 'url': url,'keyword': keyword, 'title': title})def parse_item(self, response):site = Selector(response)it = SplashTestItem()it['title'] = response.meta['title']it['url'] = response.meta['url']it['date'] = response.meta['date']it['keyword'] = response.meta['keyword']sources = site.xpath('//div[@class="headlines_source"]/span[2]/text()')if len(sources)>0:it['source'] = str(sources[0].extract()).replace(u'来源: ', '')return it

转载于:https://www.cnblogs.com/shaosks/p/6970712.html

scrapy-splash抓取动态数据例子六相关推荐

  1. scrapy-splash抓取动态数据例子十三

    一.介绍 本例子用scrapy-splash通过搜狗搜索引擎,输入给定关键字抓取微信资讯信息. 给定关键字:数字:融合:电视 抓取信息内如下: 1.资讯标题 2.资讯链接 3.资讯时间 4.资讯来源 ...

  2. scrapy-splash抓取动态数据例子八

    一.介绍 本例子用scrapy-splash抓取界面网站给定关键字抓取咨询信息. 给定关键字:个性化:融合:电视 抓取信息内如下: 1.资讯标题 2.资讯链接 3.资讯时间 4.资讯来源 二.网站信息 ...

  3. scrapy-splash抓取动态数据例子三

    一.介绍 本例子用scrapy-splash抓取今日头条网站给定关键字抓取咨询信息. 给定关键字:打通:融合:电视 抓取信息内如下: 1.资讯标题 2.资讯链接 3.资讯时间 4.资讯来源 二.网站信 ...

  4. Python爬虫抓取动态数据

    一个月前实习导师布置任务说通过网络爬虫获取深圳市气象局发布的降雨数据,网页如下: 心想,爬虫不太难的,当年跟zjb爬煎蛋网无(mei)聊(zi)图的时候,多么清高.由于接受任务后的一个月考试加作业一大 ...

  5. 手机应用url抓取_Python爬虫入门,快速抓取大规模数据(第六部分)

    在前面的章节中,我们以尽量少的代码演示了爬虫的基本原理.如果只是需要抓取一些简单的数据,那么我们修改一下前面的代码就可以完成任务了.但是当我们需要完成一些复杂的大型抓取任务时,我们就需要考虑更多东西, ...

  6. python抓取动态数据 A股上市公司基本信息

    1.背景 之前写的抓取A股所有上市公司信息的小程序在上交所网站改版后,需要同步修改 pyton2.7.9 2.分析过程 以抓取宇通客车[600066]信息为例 打开网址http://www.sse.c ...

  7. php抓取动态数据,php+ajax实现无刷新动态加载数据技术

    我们浏览有些网页的时候,当拉动浏览器的滚动条时到页底时,页面会继续自动加载更多内容供用户浏览.这种技术我暂且称它为滚屏加载技术.我们发现很多网站用到这种技术,必应图片搜索.新浪微博.QQ空间等将该技术 ...

  8. 如何实时抓取动态网页数据?

    我们所生活的数字世界正在不断地产生大量的数据.利用动态大数据已经成为企业数据分析的关键. 在本文中,我们将回答以下几个问题: 1.为什么采集动态数据很重要? 2.动态数据是如何有效的促进业务增长? 3 ...

  9. 用Scrapy和Selenium爬取动态数据

    文章参考千锋教育大佬的课程: https://www.bilibili.com/video/BV1QY411F7Vt?p=1&vd_source=5f425e0074a7f92921f53ab ...

最新文章

  1. [喵咪的Liunx(1)]计划任务队列脚本后台进程Supervisor帮你搞定
  2. Flutter开发之认识Flutter(二)
  3. 数组作为函数参数进行传递
  4. JSP作用域与特殊对象
  5. const关键字的作用?
  6. 虚拟机(VMware Workstation)中,把连接网络的模式由“NAT模式”,改成“自动桥接模式”,网速大大的提升...
  7. IIS 7.0 安装SSL证书过程
  8. 韦老师的开发板和嵌入式书籍赠送
  9. 消息中间件系列(三):主流的消息队列中间件有哪些?
  10. 轨迹相似性度量方法总结
  11. 实操教程|使用计算机视觉的方法在钢铁平面上检测焊接缺陷
  12. 若依项目人员选择器实现
  13. 【邢不行|量化小讲堂系列05-Python量化入门】计算创业板平均市盈率
  14. 408真题-2022
  15. Redis过期策略 实现原理
  16. 各类文件的文件头尾总结
  17. 39 Flutter仿京东商城项目 收货地址列表、增加 修改收货地址布局、弹出省市区选择器...
  18. CC00018.LinuxBasic——|Linux常用命令.V12|——|挂载操作|...
  19. 继承 super的讲解
  20. 【伊利丹】Hadoop-2.5.0-CDH5.2.0/Hive与Hbase整合实验

热门文章

  1. dokuwiki导航的研究
  2. Linux新手生存笔记[2]——vim训练稿
  3. HDU-2094 产生冠军
  4. CallContext和多线程
  5. 汇编实验:屏幕窗口程序(代码有较为详细的注释)
  6. kill()函数 详解
  7. hadoop商业版本选择对比
  8. kvm(十)虚拟机存储池
  9. QT的第一个程序HELLO WORLD
  10. Hibernate4组件映射