Python开发简单爬虫

源码网址:  http://download.csdn.NET/detail/hanchaobiao/9860671

一、爬虫的简介及爬虫技术价值

1.什么是爬虫:

一段自动抓取互联网信息的程序,可以从一个URL出发,访问它所关联的URL,提取我们所需要的数据。也就是说爬虫是自动访问互联网并提取数据的程序。

2.爬虫的价值

将互联网上的数据为我所用,开发出属于自己的网站或APP

二、简单的网络爬虫流程架

爬虫调度端:用来启动、执行、停止爬虫,或者监视爬虫中的运行情况在爬虫程序中有三个模块URL管理器:对将要爬取的URL和已经爬取过的URL这两个数据的管理

网页下载器:将URL管理器里提供的一个URL对应的网页下载下来,存储为一个字符串,这个字符串会传送给网页解析器进行解析

网页解析器:一方面会解析出有价值的数据,另一方面,由于每一个页面都有很多指向其它页面的网页,这些URL被解析出来之后,可以补充进URL管理 器

这三部门就组成了一个简单的爬虫架构,这个架构就能将互联网中所有的网页抓取下来

动态执行流程

三、URL管理器及三种实现方式

防止重复抓取和循环抓取,最严重情况两个URL相互指向就会形成死循环

三种实现方式

Python内存set集合:set集合支持去重的作用

MySQL:url(访问路径)is_crawled(是否访问)

Redis:使用性能最好,且Redis中也有set类型,可以去重。不懂得同学可以看下Redis的介绍

四、网页下载器和urlib模块

本文使用urllib实现

urllib2是自带的模块,不需要下载。

urllib2在python3.x中被改为urllib.request

三种实现方式

方法一:#引入模块

fromurllibimportrequest

url = "http://www.baidu.com"

#第一种下载网页的方法

print("第一种方法:")

#request = urllib.urlopen(url)  2.x

response1 = request.urlopen(url)

print("状态码:",response1.getcode())

#获取网页内容

html = response1.read()

#设置编码格式

print(html.decode("utf8"))

#关闭response1

response1.close()

方法二:

print("第二种:")

request2 = request.Request(url)

request2.add_header('user-agent','Mozilla/5.0')

response2 = request.urlopen(request2)

print("状态码:",response2.getcode())

#获取网页内容

htm2 = response2.read()

#调整格式

print(htm2.decode("utf8"))

#关闭response1

response2.close()

方法三:使用cookie

#第三种方法 使用cookie获取

import http.cookiejar

cookie=http.cookiejar.LWPCookieJar()

opener=request.build_opener(request.HTTPCookieProcessor(cookie))

request.install_opener(opener)

response3=request.urlopen(url)

print(cookie)

html3=response3.read()

#将内容格式排列

print(html3.decode("utf8"))

response3.close()

五、网页解析器和BeautifulSoup第三方模块

测试是否安装bs4

importbs4

print(bs4)

打印结果:

则安装成功

Beautiful Soup 相比其他的html解析有个非常重要的优势。html会被拆解为对象处理。全篇转化为字典和数组。

相比正则解析的爬虫,省略了学习正则的高成本,本文使用python3.x系统自带不需要安装。

使用案例:http://blog.csdn.net/watsy/article/details/14161201

方法介绍

实例测试

html采用官方案例

#引用模块

frombs4importBeautifulSoup

html_doc = """

The Dormouse's story

The Dormouse's story

Once upon a time there were three little sisters; and their names were

Elsie,

Lacie and

Tillie;

and they lived at the bottom of a well.

...

"""

获取所有的链接

print("获取所有的链接")

links = soup.find_all('a')#a标签

forlinkinlinks:

print(link.name,link['href'],link.get_text())

#获取href=http://example.com/lacie的链接

print("获取lacie链接")

link1 = soup.find('a',href="http://example.com/lacie")

print(link1.name,link1['href'],link1.get_text())

print("正则匹配 href中带有“ill”的")

importre#导入re包

link2 = soup.find('a',href=re.compile(r"ill"))

print(link2.name,link2['href'],link2.get_text())

print("获取p段落文字")

link3 = soup.find('p',class_="title")#class是关键字 需要加_

print(link3.name,link3.get_text())

六、爬虫开发实例(目标爬虫百度百科)

入口:http://baike.baidu.com/item/Python

分析URL格式:防止访问无用路径 http://baike.baidu.com/item/{标题}

数据:抓取百度百科相关Python词条网页的标题和简介

通过审查元素得标题元素为 :class="lemmaWgt-lemmaTitle-title"

简介元素为:class="lemma-summary"

页面编码:UTF-8

作为定向爬虫网站要根据爬虫的内容升级而升级如运行出错可能为百度百科升级,此时则需要重新分析目标

代码集注释:

创建spider_main.py

#创建类

fromimooc.baike_spiderimporturl_manager,html_downloader,html_output,html_parser

classspiderMain:

#构造函数 初始化

def__init__(self):

#实例化需引用的对象

self.urls = url_manager.UrlManager()

self.downloader = html_downloader.HtmlDownLoader()

self.output = html_output.HtmlOutPut()

self.parser = html_parser.HtmlParser()

defcraw(self,root_url):

#添加一个到url中

self.urls.add_new_url(root_url)

count = 1

whileself.urls.has_new_url():

try:

new_url = self.urls.get_new_url()

print('craw %d : %s'%(count,new_url))

#下载

html_context = self.downloader.downloade(new_url)

new_urls,new_data = self.parser.parse(new_url,html_context)

print(new_urls)

self.urls.add_new_urls(new_urls)

self.output.collect_data(new_data)

#爬一千个界面

if(count==1000):

break

count+=1

except:

print("craw faile")

self.output.output_html()

#创建main方法

if__name__ =="__main__":

root_url = "http://baike.baidu.com/item/Python"

obj_spider = spiderMain()

obj_spider.craw(root_url)

创建url_manager.py

classUrlManager:

'url管理类'

#构造函数初始化set集合

def__init__(self):

self.new_urls = set()#待爬取的url

self.old_urls = set()#已爬取的url

#向管理器中添加一个新的url

defadd_new_url(self,root_url):

if(root_urlisNone):

return

if(root_urlnotinself.new_urlsandroot_urlnotinself.old_urls):

#既不在待爬取的url也不在已爬取的url中,是一个全新的url,因此将其添加到new_urls

self.new_urls.add(root_url)

# 向管理器中添加批量新的url

defadd_new_urls(self,urls):

if(urlsisNoneorlen(urls) ==0):

return

forurlinurls:

self.add_new_url(url)#调用add_new_url()

#判断是否有新的待爬取的url

defhas_new_url(self):

returnlen(self.new_urls) !=0

#获取一个待爬取的url

defget_new_url(self):

new_url = self.new_urls.pop()

self.old_urls.add(new_url)

returnnew_url

创建html_downloader.py

[python] view plain copy from urllib import request  from urllib.parse import quote  import string  class HtmlDownLoader:      '下载页面内容'      def downloade(self,new_url):          if(new_url is None):              return None          #解决请求路径中含义中文或特殊字符          url_ = quote(new_url, safe=string.printable);          response = request.urlopen(url_)          if(response.getcode()!=200):              return None #请求失败          html = response.read()          return html.decode("utf8")

创建html_parser.py

frombs4importBeautifulSoup

importre

fromurllibimportparse

classHtmlParser:

#page_url 基本url 需拼接部分

def_get_new_urls(self,page_url,soup):

new_urls = set()

#匹配 /item/%E8%87%AA%E7%94%B1%E8%BD%AF%E4%BB%B6

links = soup.find_all('a',href=re.compile(r'/item/\w+'))

forlinkinlinks:

new_url = link["href"]

#例如page_url=http://baike.baidu.com/item/Python new_url=/item/史记·2016?fr=navbar

#则使用parse.urljoin(page_url,new_url)后 new_full_url = http://baike.baidu.com/item/史记·2016?fr=navbar

new_full_url = parse.urljoin(page_url,new_url)

new_urls.add(new_full_url)

returnnew_urls

def_get_new_data(self,page_url,soup):

#

Python

red_data = {}

red_data['url'] = page_url

title_node = soup.find('dd',class_="lemmaWgt-lemmaTitle-title").find('h1')#获取标题内容

red_data['title'] = title_node.get_text()

#

summary_node = soup.find('div',class_="lemma-summary")

red_data['summary'] = summary_node.get_text()

returnred_data

#new_url路径 html_context界面内容

defparse(self,page_url, html_context):

if(page_urlisNoneorhtml_contextisNone):

return

#python3缺省的编码是unicode, 再在from_encoding设置为utf8, 会被忽视掉,去掉【from_encoding = "utf-8"】这一个好了

soup = BeautifulSoup(html_context, "html.parser")

new_urls = self._get_new_urls(page_url, soup)

new_data = self._get_new_data(page_url, soup)

returnnew_urls,new_data

创建html_output.py

classHtmlOutPut:

def__init__(self):

self.datas = []#存放搜集的数据

defcollect_data(self,new_data):

if(new_dataisNone):

return

self.datas.append(new_data)

defoutput_html(self):

fout = open('output.html','w',encoding='utf8')#写入文件 防止中文乱码

fout.write('\n')

fout.write('

\n')

fout.write('

fordatainself.datas:

fout.write('

\n')

fout.write('

%s\n'%data['url'])

fout.write('

%s\n'%data['title'])

fout.write('

%s\n'%data['summary'])

fout.write('

\n')

fout.write('

\n')

fout.write('\n')

fout.write('\n')

fout.close()

视频网站:http://www.imooc.com/learn/563

源码网址:http://download.csdn.Net/detail/hanchaobiao/9860671

python秒懂百科视频,Python开发简单爬虫相关推荐

  1. python秒懂百科视频_百度百科上线“秒懂”视频功能 用短视频呈现词条内容

    TechWeb 4月28日报道 文/麻晓超 在原有的文字+图片内容体系外,百度百科正加快视频内容的引入,以及VR(虚拟现实).AR(增强现实)内容的引入. 百度百科负责人阮瑜 4月28日,百度百科在上 ...

  2. Python开发简单爬虫 - 慕课网

    课程链接:Python开发简单爬虫 环境搭建: Eclipse+PyDev配置搭建Python开发环境 Python入门基础教程 用Eclipse编写Python程序 课程目录 第1章 课程介绍 1- ...

  3. imooc疯狂的蚂蚁《Python开发简单爬虫》源代码

    以下为imooc疯狂的蚂蚁<Python开发简单爬虫>源代码,调试有些问题. html_downloader.py import html_downloader import html_o ...

  4. Python十分适合用来开发网页爬虫

    Python十分适合用来开发网页爬虫,理由如下: 1.抓取网页自身的接口 比较与其他静态编程语言,如java,c#,c++,python抓取网页文档的接口更简练:比较其他动态脚本语言,如perl,sh ...

  5. 获取秒懂百科视频地址/获取百度百科视频地址

    有时候需要用到百度百科里的视频(这里指的是秒懂百科的视频,并非百度百科页面里其他视频 如好看视频等等) 但是我们在百度百科右键缺没有办法获得视频的真正地址如图: 这时我们打开F12控制台 在NetWo ...

  6. python简单爬虫程序分析_[Python专题学习]-python开发简单爬虫

    掌握开发轻量级爬虫,这里的案例是不需要登录的静态网页抓取.涉及爬虫简介.简单爬虫架构.URL管理器.网页下载器(urllib2).网页解析器(BeautifulSoup) 一.爬虫简介以及爬虫的技术价 ...

  7. 通过爬虫抓取秒懂百科视频

    最近想做一个小项目,需要一些百科知识.我便把目标瞄准了百度百科上. 爬取百科文本,相对容易,爬取秒懂百科的视频文件,就有些麻烦了.以前也爬过阳光视频的视频文件,阳光视频在网页源码中能找到一个加密的视频 ...

  8. python_2开发简单爬虫

    2017年12月03日 16:43:01 独行侠的守望 阅读数:204 标签: python爬虫 更多 个人分类: Python 编辑 版权声明:本文为博主原创文章,转载请注明文章链接. https: ...

  9. python基础入门视频-Python基础入门视频课程——笔记

    Python基础,主讲:汤小洋 一.Python简介 1. Python是什么? ​ Python是一种面向对象的解释型计算机程序设计语言,由荷兰人Guido van Rossum(龟叔)于1989年 ...

最新文章

  1. ashx是什么文件,如何创建
  2. [2778]小明的花费预算 (二分查找)SDUT
  3. vlfeat 特征检测
  4. 安装CentOs 5.5后无法显中文(中文乱码)
  5. OC中数组排序的3种方法
  6. python 矩阵元素赋值_对numpy中数组元素的统一赋值实例
  7. php 数组的定义方法,PHP中数组定义的几种方法
  8. Markdown编辑器:纯前端演示(可接入项目、含源码下载) - 总结篇
  9. CodeForces Manthan 2011 D. Optical Experiment(动态规划)
  10. Pocket Gem OA: Path Finder
  11. 随想录(libc.so和ld.so调试)
  12. 可怕!中国博士留学生在美国遭枪击身亡,北大毕业,已经读到了博士第四年...
  13. PPT幻灯中的文本格式及颜色修改方法注意事项
  14. rocketmq长轮询
  15. [激光器原理与应用-14]:激光器企业组织内部结构解剖
  16. 钟控RS,D,JK,T触发器
  17. linux启动lighttpd服务,Linux下Lighttpd的安装配置
  18. 详解win10系统还原点怎么设置
  19. netty使用中的LEAK: ByteBuf.release() was not called before it‘s garbage-collected
  20. Python自动化办公:word文件操作教程

热门文章

  1. 理解23种设计模式(php)
  2. Linux DRM Developer's Guide
  3. 多益网络2019校招笔试
  4. 富士康诅咒仍在继续:21岁职工跳楼
  5. c语言添加字库,如何添加新的字库
  6. Radmin远程管理全解析
  7. Mybatis的动态SQL
  8. 离心机 空压机 ZH
  9. WordPress更换网站域名方法
  10. [金融证券] 什么是博傻?