爬取语录大全

  • 目标
  • 项目准备
  • 网站分析
  • 反爬分析
  • 每一页的链接分析
  • 代码实现
  • 效果显示

目标

爬取语录,批量下载到本地。

项目准备

软件:Pycharm
第三方库:requests,fake_useragent,re,lxml
网站地址:http://www.yuluju.com

网站分析

打开网站。

有很多分类,不同类型的语录。
点击爱情语录,发现上方网址变化为http://www.yuluju.com/aiqingyulu/

点击搞笑语录,也会发生类似的变化。

以下类似。
判断是否为静态网页。

有页码跳转一般为静态网页。
Ctrl+U查看源代码,Ctrl+F调出搜索框,输入一些网页上出现的文字。

可以找到。静态网页。

反爬分析

同一个ip地址去多次访问会面临被封掉的风险,这里采用fake_useragent,产生随机的User-Agent请求头进行访问。

每一页的链接分析

第一页:http://www.yuluju.com/aiqingyulu/list_18_1.html
第二页:http://www.yuluju.com/aiqingyulu/list_18_2.html
第三页:http://www.yuluju.com/aiqingyulu/list_18_3.html

可以发现,每页的变化会随着数字变化。
当然这里分析的是爱情语录这一栏目,其它的也类似。

代码实现

1.导入相对应的第三方库,定义一个class类继承object,定义init方法继承self,主函数main继承self。

import  requests
from fake_useragent import UserAgent
from lxml import etree
class yulu(object):def __init__(self):self.url = 'http://www.yuluju.com'ua = UserAgent(verify_ssl=False)#随机产生user-agentfor i in range(1, 100):self.headers = {'User-Agent': ua.random}def mian(self):pass
if __name__ == '__main__':spider = yulu()spider.main()

2.交互界面

print('        1.励志语录\n''2.爱情语录\n''3.搞笑语录\n''4.人生语录\n''5.情感语录\n''6.经典语录\n''7.伤感语录\n''8.名人语录\n''9.心情语录\n')select=int(input('请输入您的选择:'))if (select==1):url=self.url+'lizhimingyan/list_1_{}.html'elif (select==2):url = self.url + 'aiqingyulu/list_18_{}.html'elif (select==3):url = self.url + 'gaoxiaoyulu/list_19_{}.html'elif (select==4):url=self.url+'renshenggeyan/list_14_{}.html'elif (select==5):url=self.url+'qingganyulu/list_23_{}.html'elif (select==6):url=self.url+'jingdianyulu/list_12_{}.html'elif (select==7):url=self.url+'shangganyulu/list_21_{}.html'elif (select==8):url=self.url+'mingrenmingyan/list_2_{}.html'else:url=self.url+'xinqingyulu/list_22_{}.html'

3.发送请求,获取网页。

    def get_html(self,url):response=requests.get(url,headers=self.headers)html=response.content.decode('gb2312')#经过测试这里是'gb2312'return html

4.解析网页,获取文本信息。

    def parse_html(self,html):#获取每页中的链接地址和标题datas=re.compile('<a href="(.*?)" class="title" target="_blank">(.*?)</a>').findall(html)for data in datas:host='http://www.yuluju.com'+data[0]res=requests.get(host,headers=self.headers)con=res.content.decode('gb2312')target=etree.HTML(con)#获取文本内容results=target.xpath('//div[@class="content"]/div/div/span/text()')filename=data[1]#保存本地with open('F:/pycharm文件/document/'+filename+'.txt','a',encoding='utf-8')as f:for result in results:f.write(result+'\n')

5.获取多页及主函数调用。

    def main(self):print('1.励志语录\n''2.爱情语录\n''3.搞笑语录\n''4.人生语录\n''5.情感语录\n''6.经典语录\n''7.伤感语录\n''8.名人语录\n''9.心情语录\n')select=int(input('请输入您的选择:'))if (select==1):url=self.url+'lizhimingyan/list_1_{}.html'elif (select==2):url = self.url + 'aiqingyulu/list_18_{}.html'elif (select==3):url = self.url + 'gaoxiaoyulu/list_19_{}.html'elif (select==4):url=self.url+'renshenggeyan/list_14_{}.html'elif (select==5):url=self.url+'qingganyulu/list_23_{}.html'elif (select==6):url=self.url+'jingdianyulu/list_12_{}.html'elif (select==7):url=self.url+'shangganyulu/list_21_{}.html'elif (select==8):url=self.url+'mingrenmingyan/list_2_{}.html'else:url=self.url+'xinqingyulu/list_22_{}.html'start = int(input('输入开始:'))end = int(input('输入结束页:'))for page in range(start, end + 1):print('第%s页开始:...' % page)newUrl=url.format(page)html=self.get_html(newUrl)self.parse_html(html)print('第%s页爬取完成!'%page)

效果显示


打开文件目录

爬取其它栏目也是可以的,就不做演示了,都一样。
完整代码如下:

import  requests
from fake_useragent import UserAgent
import re
from lxml import etree
class yulu(object):def __init__(self):self.url='http://www.yuluju.com/'ua = UserAgent(verify_ssl=False)for i in range(1, 100):self.headers = {'User-Agent': ua.random}def get_html(self,url):response=requests.get(url,headers=self.headers)html=response.content.decode('gb2312')return htmldef parse_html(self,html):datas=re.compile('<a href="(.*?)" class="title" target="_blank">(.*?)</a>').findall(html)for data in datas:host='http://www.yuluju.com'+data[0]res=requests.get(host,headers=self.headers)con=res.content.decode('gb2312')target=etree.HTML(con)results=target.xpath('//div[@class="content"]/div/div/span/text()')filename=data[1]with open('F:/pycharm文件/document/'+filename+'.txt','a',encoding='utf-8')as f:for result in results:f.write(result+'\n')def main(self):print('1.励志语录\n''2.爱情语录\n''3.搞笑语录\n''4.人生语录\n''5.情感语录\n''6.经典语录\n''7.伤感语录\n''8.名人语录\n''9.心情语录\n')select=int(input('请输入您的选择:'))if (select==1):url=self.url+'lizhimingyan/list_1_{}.html'elif (select==2):url = self.url + 'aiqingyulu/list_18_{}.html'elif (select==3):url = self.url + 'gaoxiaoyulu/list_19_{}.html'elif (select==4):url=self.url+'renshenggeyan/list_14_{}.html'elif (select==5):url=self.url+'qingganyulu/list_23_{}.html'elif (select==6):url=self.url+'jingdianyulu/list_12_{}.html'elif (select==7):url=self.url+'shangganyulu/list_21_{}.html'elif (select==8):url=self.url+'mingrenmingyan/list_2_{}.html'else:url=self.url+'xinqingyulu/list_22_{}.html'start = int(input('输入开始:'))end = int(input('输入结束页:'))for page in range(start, end + 1):print('第%s页开始:...' % page)newUrl=url.format(page)html=self.get_html(newUrl)self.parse_html(html)print('第%s页爬取完成!'%page)
if __name__ == '__main__':spider = yulu()spider.main()

声明:仅做自己学习参考使用。

爬虫项目实战四:爬取语录大全相关推荐

  1. python网络爬虫--项目实战--scrapy爬取人人车(5)

    一.目标 爬取多页人人车的车辆信息 二.分析 2.1 网站分析 在网页源代码中可以搜索到页面中的数据,所以可以判断该页面为静态加载的 三.完整代码 renrenche.py import scrapy ...

  2. Python网络爬虫--项目实战--scrapy爬取人人车

    一.目标 爬取多页人人车的车辆信息 二.分析 2.1 网站分析 在网页源代码中可以搜索到页面中的数据,所以可以判断该页面为静态加载的 三.完整代码 renrenche.py import scrapy ...

  3. 爬虫项目三:爬取选课信息

    爬虫项目三:爬取whut-jwc选课信息 项目实现:主要获得通识选修.个性选课.英语体育选课的课程信息 核心: 1.实现网页登陆 2.爬取课程信息 一.网页信息登陆 from selenium imp ...

  4. 手把手带你爬虫 | 爬取语录大全

    目标 爬取语录,批量下载到本地. 项目准备 软件:Pycharm 第三方库:requests,fake_useragent,re,lxml 网站地址:http://www.yuluju.com 网站分 ...

  5. python爬虫实战之爬取成语大全

    业余时间,想学习中华文化之成语,身边没有成语词典,网上一个个翻网页又比较懒,花了半个小时搞定数字成语词典,你值得拥有! 爬取思路 找到首页网址:https://www.chengyucidian.ne ...

  6. python壁纸数据抓取_python爬虫多线程实战:爬取美桌1080p壁纸图片

    本人纯手工码字哦,请耐心看完,有信心可以带你完整学会这个实战案例 一.需求分析: 1.下载 http://www.win4000.com/wallpaper.html 下指定分类 指定尺寸 的图片 2 ...

  7. Python3爬虫项目集:爬取知乎十几万张小姐姐美图

    文章目录 前言 注意点 代码实例 前言 github:https://github.com/pasca520/Python3SpiderSet 知乎上有很多钓鱼贴,也成功的钓上了很多鱼,你懂的~~~ ...

  8. elasticSearch的基本使用加项目实战(Java爬取数据+elasticSearch)

    一.es的安装 2.1.Es安装 为了避免出现不必要的一些问题, 我们这里选择 7.3.1版本 1. 安装es 下载 https://www.elastic.co/downloads/past-rel ...

  9. Requests库实战(四)---爬取肯德基餐厅地址信息

    功能:爬取查询后的肯德基餐厅的地址信息 地址:http://www.kfc.com.cn/kfccda/storelist/index.aspx 亮点是post请求的参数有两组:查询字符串参数,表单数 ...

最新文章

  1. 使用Windows7上的VS Code打开远程机Ubuntu上的文件操作步骤
  2. 中北大学c语言程序设计作业答案,2016年中北大学软件学院程序设计基础考研复试题库...
  3. “玩转课堂”软件需求规格说明
  4. POJ 2135 Farm Tour amp;amp; HDU 2686 Matrix amp;amp; HDU 3376 Matrix Again 费用流求来回最短路...
  5. Python如何打包EXE可执行文件
  6. Flex与外部的数据通信
  7. [SIR数据集实验][2]Java类数据集相应工具使用的小经验
  8. redis 持久化性能_高性能持久消息
  9. Matlab中的eig函数和Opecv中eigen()函数的区别
  10. 深度学习笔记(26) 卷积神经网络
  11. Week4——Hello.java分析
  12. yolov3代码详细解读
  13. hdu4616_Game_树形DP
  14. 熬了三个通宵的CV学习心法!我开眼了!
  15. softmax ce loss_从Softmax到AMSoftmax(附可视化代码和实现代码)
  16. 计算机底部怎么不显示网络连接图标不见了,电脑任务栏不显示网络连接图标怎么办...
  17. Android Reboot 命令执行过程
  18. android官方转圈圈,android 弹出之后,一直转圈圈??
  19. 尚硅谷《全套Java、Android、HTML5前端视频》
  20. 防火墙——GRE隧道讲解

热门文章

  1. Git 命令在线练习
  2. mvn dependency:tree查看jar包间接依赖
  3. 计算机组装与维护教学工作计划,计算机教学计划范文五篇
  4. HBuilderX Git操作
  5. 周鸿祎:锚定梦想,一切变简单
  6. qt android png透明,QT透明的经验汇编
  7. Python RSA 加密解密
  8. 黏住用户,百度的难题
  9. python为什么不解除gil_Python有可能去除GIL吗?
  10. 前后端增删改查在前段页面显示