都说python爬网页数据方便,我们今天就来试试,python爬取数据到底有多方便

简介
爬取数据,基本都是通过网页的URL得到这个网页的源代码,根据源代码筛选出需要的信息

准备
IDE:pyCharm
库:requests、lxml

大概介绍一下,这俩库主要为我们做什么服务的
requests:获取网页源代码
lxml:得到网页源代码中的指定数据

言简意赅有没有 _

搭建环境
这里的搭建环境,可不是搭建python的开发环境,这里的搭建环境是指,我们使用pycharm新建一个python项目,然后弄好requests和lxml
新建一个项目:

光溜溜的啥也没有,新建个src文件夹再在里面直接新建一个Test.py吧

依赖库导入
我们不是说要使用requests吗,来吧
由于我们使用的是pycharm,所以我们导入这两个库就会显的格外简单,如图:

在Test.py中输入:

import requests

这个时候,requests会报红线,这时候,我们将光标对准requests,按快捷键:alt + enter,pycharm会给出解决之道,这时候,选择install package requests,pycharm就会自动为我们安装了,我们只需要稍等片刻,这个库就安装好了。lxml的安装方式同理.

将这两个库安装完毕后,编译器就不会报红线了

接下来进入快乐的爬虫时间

获取网页源代码
之前我就说过,requests可以很方便的让我们得到网页的源代码
网页就拿我的博客地址举例好了:https://blog.csdn.net/it_xfviewmode=contents
获取源码:

获取源码

html = requests.get(“https://blog.csdn.net/it_xf?viewmode=contents”)

打印源码

print html.text

代码就是这么简单,这个html.text便是这个URL的源码

获取指定数据
现在我们已经得到网页源码了,这时就需要用到lxml来来筛选出我们所需要的信息
这里我就以得到我博客列表为例

首先我们需要分析一下源码,我这里使用的是chrome浏览器,所以右键检查,便是这样一份画面:

然后在源代码中,定位找到第一篇
像这样?

操作太快看不清是不是?
我这里解释一下,首先点击源码页右上角的箭头,然后在网页内容中选中文章标题,这个时候,源码会定位到标题这里,
这时候选中源码的标题元素,右键复制如图:

得到xpath,嘿嘿,知道这是什么吗,这个东西相当于地址。比如网页某长图片在源码中的位置,我们不是复制了吗,粘贴出来看看长啥样

//*[@id=“mainBox”]/main/div[2]/div[1]/h4/a

这里给你解释解释:

// 定位根节点
/ 往下层寻找
提取文本内容:/text()
提取属性内容:/@xxxx

后面两个我们还没有在这个表达式见过,待会说,先摆张图放出来

表达式://*[@id=“mainBox”]/main/div[2]/div[1]/h4/a
我们来琢磨琢磨,首先,//表示根节点,也就是说啊,这//后面的东西为根,则说明只有一个啊
也就是说,我们需要的东西,在这里面
然后/表示往下层寻找,根据图片,也显而易见,div -> main -> div[2] -> div[1] -> h4 -> a
追踪到a这里,我想,你们应该也就看得懂了,然后我们在后面加个/text,表示要把元素的内容提取出来,所以我们最终的表达式长这样:

//*[@id=“mainBox”]/main/div[2]/div[1]/h4/a/text()

这个表达式只针对这个网页的这个元素,不难理解吧?
那么这个东西怎么用呢?
所有代码:

import requests
from lxml import etree

html = requests.get(“https://blog.csdn.net/it_xf?viewmode=contents”)

print html.text

etree_html = etree.HTML(html.text)
content = etree_html.xpath(’//*[@id=“mainBox”]/main/div[2]/div[1]/h4/a/text()’)
for each in content:
print(each)

这时候,each里面的数据就是我们想要得到的数据了
打印结果:

    如何撸一个ArrayList

打印结果却是这个结果,我们现在把换行和空格去掉

import requests
from lxml import etree

html = requests.get(“https://blog.csdn.net/it_xf?viewmode=contents”)

print html.text

etree_html = etree.HTML(html.text)
content = etree_html.xpath(’//*[@id=“mainBox”]/main/div[2]/div[1]/h4/a/text()’)

for each in content:
replace = each.replace(’\n’, ‘’).replace(’ ', ‘’)
if replace == ‘\n’ or replace == ‘’:
continue
else:
print(replace)

打印结果:

如何撸一个ArrayList

相当nice,那么,如果我们要得到所有的博客列表呢
看图看表达式分析大法

表达式://*[@id=“mainBox”]/main/div[2]/div[1]/h4/a/text()
其实我们能够很容易发现,main->div[2]其实包含所有文章,只是我们取了main->div[2]->div[1],也就是说我们只是取了第一个而已。所以,其实表达式写出这样,就可以得到所有的文章了

//*[@id=“mainBox”]/main/div[2]/div/h4/a/text()

再来一次:

import requests
from lxml import etree

html = requests.get(“https://blog.csdn.net/it_xf?viewmode=contents”)

print html.text

etree_html = etree.HTML(html.text)
content = etree_html.xpath(’//*[@id=“mainBox”]/main/div[2]/div/h4/a/text()’)

for each in content:
replace = each.replace(’\n’, ‘’).replace(’ ', ‘’)
if replace == ‘\n’ or replace == ‘’:
continue
else:
print(replace)

打印结果:

如何撸一个ArrayList
Android相机屏幕适配
Tinker关于clean后准基包消失的解决方案
Tinker使用指南
git分支的使用
如何将Androidstudio中的项目导入到第三方的git托管库中
遍历矩阵
从矩阵中取出子矩阵
AndroidStudio配置OpenCV
一步一步了解handler机制
Android常用框架
Android绘制波浪线
RxJava系列教程之线程篇(五)
RxJava系列教程之过滤篇(四)
RxJava系列教程之变换篇(三)
RxJava系列教程之创建篇(二)
RxJava系列教程之介绍篇(一)
一个例子让你彻底理解java接口回调
SharedPreferences的用法及指南
异步加载网络图片带进度
VideoView加载闪黑屏
android视频播放vitamio的简单运用
仿网易新闻分类刷新
ListView加CheckBox简单实现批量删除
Android如何高效加载大图
Android聊天界面实现方式
抽屉侧滑菜单Drawerlayout-基本使用方法
android-引导页的实现方式
Java设计模式–工厂模式的自述
javaweb学习路线
getWindow().setFlags()使用说明书
歪解Activity生命周期-----初学者彻底理解指南

相当nice,我们得到了所有的文章列表。

————————————————
版权声明:本文为CSDN博主「你缺少想象力」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/IT_XF/article/details/82184585

python初学者爬取数据完整教程相关推荐

  1. Python 学习 02 —— Python如何爬取数据

    文章目录 系列文章 二.Python 爬 虫 1.任务介绍 2.简介 3.基本流程 3.1.准备工作 3.1.1.分析页面 3.1.2.编码规范 3.1.3.导入模块 3.1.4.程序流程 3.2.获 ...

  2. python requests 爬取数据

    python requests 爬取数据 import requests from lxml import etree import time import pymysql import json h ...

  3. Python爬虫---爬取数据(上)

    又是女票,拿了3万多条的13年某地区的公司信息,但是三年过去了,工商局的注册信息发生了巨大变化,有的注册资本增加了,有的公司老板变多了,更有不少公司不存在了,因此,需要一份最新的信息以便于她进行使用. ...

  4. python在线爬取数据导入Neo4j创建知识图谱

    近期学习Neo4j,以豆瓣top250数据为研究对象,实现python在线爬取数据写入Neo4j创建知识图谱,下文详细介绍步骤. 1.知识图谱设计 通过分析网页,爬取网页可以得到movie.count ...

  5. 如何用六步教会你使用python爬虫爬取数据

    前言: 用python的爬虫爬取数据真的很简单,只要掌握这六步就好,也不复杂.以前还以为爬虫很难,结果一上手,从初学到把东西爬下来,一个小时都不到就解决了. python爬出六部曲 第一步:安装req ...

  6. python为啥爬取数据会有重复_利用Python来爬取“吃鸡”数据,为什么别人能吃鸡?...

    原标题:利用Python来爬取"吃鸡"数据,为什么别人能吃鸡? 首先,神装镇楼 背景 最近老板爱上了吃鸡(手游:全军出击),经常拉着我们开黑,只能放弃午休的时间,陪老板在沙漠里奔波 ...

  7. Python爬虫爬取数据

    我是Python小白,我会用比较通俗易懂的方法告诉你如何去爬取数据. 一开始,我们需要pycharm(也就是我们编代码的工具),其次我们需要打开我们需要爬取数据的网页,我以鞋子为例. 那么,接下来就开 ...

  8. python定时爬取数据_python实现scrapy爬虫每天定时抓取数据的示例代码

    1. 前言. 1.1. 需求背景. 每天抓取的是同一份商品的数据,用来做趋势分析. 要求每天都需要抓一份,也仅限抓取一份数据. 但是整个爬取数据的过程在时间上并不确定,受本地网络,代理速度,抓取数据量 ...

  9. 采用python爬虫爬取数据然后采用echarts数据可视化分析

    前言:采用python爬虫爬取天气数据然后采用echarts数据可视化画图分析未来天气变化趋势 从获取数据到可视化的流程 (熟悉爬虫爬取数据然后数据可视化这个过程) 一.python爬取未来8-15天 ...

最新文章

  1. HTML+CSS布局技巧及兼容问题【阅读季】
  2. python怎么打包压缩文件_Python打包文件夹的方法小结(zip,tar,tar.gz等)
  3. 数学好=编程能力强?MIT新发现:二者激活大脑区域并不同
  4. 电脑开机一会就蓝屏怎么回事_客户电脑老是出现问题,三天来找三次麻烦!拆机后“真凶”大白!...
  5. WebLogic下载地址
  6. django表与表之间的关系
  7. 【KubeVela 官方文档翻译】,欢迎大家踊跃参与
  8. MTK 驱动开发(38)--- getevent 和 sendevent
  9. 编程在线--- 网站(IT技术学习、面试、交流)上线了
  10. delphi formshow 刷新_OPPO K7x部分配置和外观公布90Hz刷新率11·4发布
  11. linux拆分文件会影响源文件吗,linux split拆分文件
  12. 如何使用Beyond Compare中心窗格
  13. Ubuntu下快速安装jdk、tomcat、mysql和Redis
  14. qq群api协议,非官方协议,抓包获取的QQ群操作协议
  15. Footprint 8月月报 DeFi市场多点开花,9月是否会迎来下一个爆发点
  16. 计算机二进制数的换算
  17. 用LSTM生成武侠人名
  18. 网络安全基本属性和STRIDE
  19. DT(密集轨迹)算法和iDT(改善的密集轨迹)算法
  20. 怎样修改MindMapper中的线条

热门文章

  1. qt 增加的翻译没有作用上_Qt语言翻译工具的使用 及 QT-Linguist国际化的简单实现...
  2. 高校计算机课程期末考试试卷分析,大学计算机基础期末考试试卷分析与评价
  3. android qq协议分析工具,QQ协议分析
  4. mac pc 安装 mac os 雪豹系统
  5. 互联网摸鱼日报(2023-02-16)
  6. iOS中图片压缩的常见方法
  7. douphp添加设置栏目
  8. 利用Shap Value挑选变量
  9. 电脑高手的140个电脑小技巧
  10. 科目二 曲线行驶 S弯道 流程记录 LTS