昨天用python写了一个天气预报采集,今天趁着兴头写个新闻采集的。

  目标是,将腾讯新闻主页上所有新闻爬取下来,获得每一篇新闻的名称、时间、来源以及正文。

  接下来分解目标,一步一步地做。

  步骤1:将主页上所有链接爬取出来,写到文件里。

  根据上一篇文章的方法,可以简单地获取到整个主页的文本内容。

  我们都知道html链接的标签是“a”,链接的属性是“href”,也就是要获得html中所有tag=a,attrs=href 值。

  查阅了资料,一开始我打算用HTMLParser,而且也写出来了。但是它有一个问题,就是遇到中文字符的时候无法处理。

1 class parser(HTMLParser.HTMLParser):
2     def handle_starttag(self, tag, attrs):
3             if tag == 'a':
4             for attr, value in attrs:
5                 if attr == 'href':
6                     print value

  后来使用了SGMLParser,它就没有这个问题。

1 class URLParser(SGMLParser):
2         def reset(self):
3                 SGMLParser.reset(self)
4                 self.urls = []
5
6         def start_a(self,attrs):
7                 href = [v for k,v in attrs if k=='href']
8                 if href:
9                         self.urls.extend(href)

  SGMLParser针对某个标签都需要重载它的函数,这里是把所有的链接放到该类的urls里。

 1 lParser = URLParser()#分析器来的
 2 socket = urllib.urlopen("http://news.qq.com/")#打开这个网页
 3
 4 fout = file('urls.txt', 'w')#要把链接写到这个文件里
 5 lParser.feed(socket.read())#分析啦
 6
 7 reg = 'http://news.qq.com/a/.*'#这个是用来匹配符合条件的链接,使用正则表达式匹配
 8 pattern = re.compile(reg)
 9
10 for url in lParser.urls:#链接都存在urls里
11     if pattern.match(url):
12         fout.write(url+'\n')
13
14 fout.close()

  这样子就把所有符合条件的链接都保存到urls.txt文件里了。

  步骤2:对于每一个链接,获取它的网页内容。

  很简单,只需要打开urls.txt文件,一行一行地读出来就可以了。

  也许这里会显得多此一举,但是基于我对解耦的强烈愿望,我还是果断地写到文件里了。后面如果采用面向对象编程,重构起来是十分方便的。

  获取网页内容部分也是相对简单的,但是需要把网页的内容都保存到一个文件夹里。

  这里有几个新的用法:

 1 os.getcwd()#获得当前文件夹路径
 2 os.path.sep#当前系统路径分隔符(是这个叫法吗?)windows下是“\”,linux下是“/”
 3
 4 #判断文件夹是否存在,如果不存在则新建一个文件夹
 5 if os.path.exists('newsdir') == False:
 6     os.makedirs('newsdir')
 7
 8 #str()用来将某个数字转为字符串
 9 i = 5
10 str(i)

  有了这些方法,将字符串保存到某个文件夹下不同的文件就不再是一件困难的事了。

  步骤3:枚举每一个网页,根据正则匹配获得目标数据。

  下面的方法是用来遍历文件夹的。

1 #这个是用来遍历某个文件夹的
2 for parent, dirnames, filenames in os.walk(dir):
3     for dirname in dirnames
4         print parent, dirname
5     for filename in filenames:
6         print parent, filename

  遍历,读取,匹配,结果就出来了。

  我使用的数据提取的正则表达式是这样的:

reg = '<div class="hd">.*?<h1>(.*?)</h1>.*?<span class="pubTime">(.*?)</span>.*?<a .*?>(.*?)</a>.*?<div id="Cnt-Main-Article-QQ" .*?>(.*?)</div>'

  其实这个并不能匹配到腾讯网的所有新闻,因为上面的新闻有两种格式,标签有一点差别,所以只能提取出一种。

  另外一点就是通过正则表达式的提取肯定不是主流的提取方法,如果需要采集其他网站,就需要变更正则表达式,这可是一件比较麻烦的事情。

  提取之后观察可知,正文部分总是会参杂一些无关信息,比如“<script>...</script>”“<p></p>”等等。所以我再通过正则表达式将正文切片。

1 def func(str):#谁起的这个名字
2     strs = re.split("<style>.*?</style>|<script.*?>.*?</script>|&#[0-9]+;|<!--\[if !IE\]>.+?<!\[endif\]-->|<.*?>", str)#各种匹配,通过“|”分隔
3     ans = ''
4     #将切分的结果组合起来
5     for each in strs:
6         ans += each
7     return ans

  这样腾讯网上面的正文基本全部能够提取出来。

  到此整个采集也就结束了。

  展示一下我提取到的结果(不使用自动换行,右边隐藏了):

  

  注意:

  1、打开某个网址的时候,如果网址是坏的(打不开),若不处理则会报错。我简单地使用处理异常的方式,估计应该有其他方式。

try:socket = urllib.urlopen(url)
except:continue

  2、Python正则表达式中的“.”号,可以匹配任意字符,但是除了“\n”。

  3、如何去除字符串末尾的“\n”?python的处理简直优雅到死啊!

1 if line[-1] == '\n':
2     line = line[0:-1]

 

转载于:https://www.cnblogs.com/coltfoal/archive/2012/10/07/2714468.html

Python多篇新闻自动采集相关推荐

  1. python 自动编写新闻_Python多篇新闻自动采集

    昨天用python写了一个天气预报采集,今天趁着兴头写个新闻采集的. 目标是,将腾讯新闻主页上所有新闻爬取下来,获得每一篇新闻的名称.时间.来源以及正文. 接下来分解目标,一步一步地做. 步骤1:将主 ...

  2. python 采集新闻_Python多篇新闻自动采集

    昨天用python写了一个天气预报采集,今天趁着兴头写个新闻采集的. 目标是,将腾讯新闻主页上所有新闻爬取下来,获得每一篇新闻的名称.时间.来源以及正文. 接下来分解目标,一步一步地做. 步骤1:将主 ...

  3. python手游脚本自动采集_Python脚本结合UiAutomator自动化采集Activity的FPS

    前置条件 python调试环境 Eclipse(Version: Luna Release (4.4.0))+pydev(3.7.0) UiAutomator 准备一个用于滑动被测试APP的UiAut ...

  4. Python实例篇:这样操作PDF文件一点都不枯燥了

    前言 大家好,我是辣条 之前辣条有发布过我们常用的两个技能点,今天第三个技能点(PDF)他来了 <Python实例篇:自动操作Excel文件(既简单又特别实用)> <Python技巧 ...

  5. python爬取腾讯新闻_Python采集腾讯新闻实例

    目标是把腾讯新闻主页上所有新闻爬取下来,获得每一篇新闻的名称.时间.来源以及正文. 接下来分解目标,一步一步地做. 步骤1:将主页上所有链接爬取出来,写到文件里. python在获取html方面十分方 ...

  6. 全自动采集新闻站源码-单站自动采集新闻源码(seo标题伪原创)

    简介: 单站自动采集新闻源码(seo标题伪原创),一款能够轻松搭建的网站源码资源,用户可以搭建一个自动的新闻采集网站,支持seo伪原创功能,能够自动采集并进行seo优化,帮助你节省不少的精力. 有相关 ...

  7. 用python实现苹果cms电影网站的自动采集

    苹果cms电影网站的自动采集 用苹果cms搭建的电影网站,采集影片可以通过后台的自定义资源库链接资源网站.这种方式简单易操作.但是问题是采集的时候只有两种属性可以选择,一是可以选择影片类型,二是可以有 ...

  8. 使用python爬虫为wordpress采集内容 felix_python爬虫自动采集并上传更新网站 requests wordpress_xmlrpc wordpress实战...

    爬虫用的 bs4+requests 上传用的  wordpress_xmlrpc #coded by 伊玛目的门徒 #coding=utf-8 from wordpress_xmlrpc import ...

  9. python Intel Realsense D435 图像自动采集程序 自动剔除模糊图像

    代码: # -*- encoding: utf-8 -*- """ @File : save_image.py @Time : 2019/10/23 14:44 @Aut ...

最新文章

  1. STM32-超级终端显示日历
  2. php赋值权重_php权重计算方法代码分享
  3. Python3 中 random模块
  4. for命令linux,linux中的for命令
  5. 前端学习(2775):方式2进行路由跳转
  6. 需求、需求工程与需求工程师 — 2.需求的来源
  7. 一个很详细的web.xml讲解(转)
  8. (38)VHDL实现主从JK触发器
  9. FreeTreeView一个可添加、删除、修改的无限极树形结构
  10. MAGENTO DEBUG
  11. www.050604.pw ub.php,《UFIDA用友软件维护工具》050604版使用说明
  12. 最新Oreo支付系统平台完整源码+已全开源
  13. win10+ubuntu16.04双系统下完全删除并重装ubuntu16.04
  14. Origin复制图形格式
  15. java微信模板消息开发,微信公众号模板消息开发小结
  16. 大规模定制(Mass Customization,MC)
  17. python selenium下载图片_python 登陆开心网图片批量下载-selenium实现
  18. 为什么苹果手机拍照会模糊?一起来看手机维修师如何解决
  19. android sit0 ip6tnl0,USB wifi调试笔记
  20. Autodesk的照片建模云服务—Autodesk ReCap 360 photo

热门文章

  1. android message 代码,Android Handler移除Message详解及实例代码
  2. php中mysql_fetch_row_php中的mysql_fetch_row,mysql_fetch_array,mysql_fetch_object
  3. 傅里叶变换及其应用 pdf_级数的欧拉变换及其应用
  4. C语言预处理命令总结
  5. action mutation 调用_Vuex源码学习(六)action和mutation如何被调用的(前置准备篇)...
  6. python如何实现人工智能应用锁_如何清除应用锁的数据库
  7. vs如何写多线程_java中的多线程的示例
  8. 视频光端机音频出现噪音是为何?
  9. [渝粤教育] 广东-国家-开放大学 21秋期末考试工程经济10202k2
  10. 【渝粤教育】电大中专电商运营实操 (18)作业 题库