爬虫基本原理

1. 什么是爬虫

请求网站并提取数据的自动化程序。

2. 爬虫基本流程

  • 发起请求

    通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,等待服务器响应。

  • 获取响应

    如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能有HTML,Json字符串,二进制数据(如图片视频)等类型。

  • 解析内容

    得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转为Json对象解析,可能是二进制数据,可以做保存或者进一步处理。

  • 保存数据

    保存形式多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。

3. 什么是Request和Response

4. Request中包含什么

  • 请求方式

    主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。

    1. GET:请求的参数全都包含在请求的网址中。直接输入链接即可访问。
    2. POST:与GET不同,请求的信息封装了,包含在Formdata中。需要构造表单,然后点击提交。
  • 请求URl

    URL全称统一资源定位符,入一个网页文档、一张图片、一个视频等都可以用URL唯一来确定。

  • 请求头Headers

    包含请求时的头部文件,包含了很重要配置信息,如User_Agent、Host、Cookies等信息。

  • 请求体

    请求时额外携带的数据,如表单提交时的表单数据。一般GET请求无需请求体,POST请求则需要请求体。

5. Response中包含什么

  • 响应状态status_code

    有多种响应状态,如200代表成功、301跳转、404找不到页面、502服务器错误。

  • 响应头headers

    如内容类型、内容长度、服务器信息、设置Cookie等等。键值对的形式。

  • 响应体

    最主要的部分,包含了请求资源的内容,如网页HTML,图片二进制数据等。

6. 能抓怎样的数据

  • 网页文本

    如HTML文档、Json格式文本等。

  • 图片

    获取到的是二进制文件、保存为图片格式。

    //example 保存了一个图片
    import requests
    response = requests.get('https://www.baidu.com/img/baidu_jgylogo3.gif')
    print(response.content)
    with open('C:/Users/Administrator/Desktop/1.gif', 'wb') as f:f.write(response.content)
  • 视频

    同为二进制文件,保存为视频格式即可。

  • 其它

7. 怎样进行网页的解析

  • 解析方式

    1. 直接处理
    2. Json解析(Ajax)
    3. 正则表达式
    4. BeautifulSoap
    5. PyQuery
    6. XPath
  • 为什么抓到的和浏览器看到的不一样

    因为抓到的结果里面有很多js文件,里面包含的网页中内容的请求。浏览器则是把所有js加载完毕后才显示出来的。

8. 怎样解决JavaScript渲染的问题

  • 分析Ajax请求
  • Selenium/WebDriver (模拟渲染)
  • Splash(同上)
  • PyV8、Ghost.py

9. 怎样保存数据

  • 文本

    纯文本、Json、Xml等

  • 关系型数据库

    如MySQL、Oracle、SQL Server等具有结构化表结构形式存储。

  • 非关系型数据库

    如MongoDB、Redis等Key_Value形式存储。

  • 二进制文件

    如图片、视频、音频等等直接保存成特定格式即可。

Python爬虫基本原理相关推荐

  1. python爬虫基本原理_Python爬虫【一】爬虫的基本原理

    一.爬虫基本原理 1.获取网络数据 用户方式:浏览器提交请求->下载网页代码->解析/渲染成页面 爬虫方式:模拟浏览器发送请求->下载网页代码->只提取有用的数据->存放 ...

  2. python爬虫基础-http/https协议

    http/https协议 首先http的官方概念 HTTP协议是Hyper Text Transfer Protocol(超文本传输协议)的缩写,是用于从万维网(WWW:World Wide Web ...

  3. python爬虫与文本数据分析 系列课

    在过去的两年间,Python一路高歌猛进,成功窜上"最火编程语言"的宝座.惊奇的是使用Python最多的人群其实不是程序员,而是数据科学家,尤其是社会科学家,涵盖的学科有经济学.管 ...

  4. 【浅谈爬虫】一名合格的Python爬虫工程师必须具备技能—具体了解四大Python爬虫分类以及爬虫基本原理实现

    一.网络爬虫概述 网络爬虫(又被称作为网络蜘蛛.网络机器人,在某社区中经常被称为网页追逐者),可以按照指定的规则(网络爬虫的算法)自动浏览或抓取网络中的信息,通过Python可以很轻松地编写爬虫程序或 ...

  5. python爬虫的原理以及步骤-Python-爬虫的基本原理

    什么是爬虫 爬虫就是请求网站并提取数据的自动化程序.其中请求,提取,自动化是爬虫的关键!下面我们分析爬虫的基本流程 爬虫的基本流程 发起请求 通过HTTP库向目标站点发起请求,也就是发送一个Reque ...

  6. 【Python 爬虫】 4、爬虫基本原理

    爬虫基本原理 爬虫的基本流程 1.获取网页源代码:通过请求库实现,urllib,requests等实现HTTP请求: 2.提取信息:分析网页源代码,提取数据,如正则表达式,beautiful soup ...

  7. python爬虫的基本原理以及scrapy框架的使用

    正则表达式基础 正则表达式用于处理字符串,拥有自己独立的语法以及一个独立的处理引擎. 不同提供正则表达式的语言里正则表达式的语法都式一样. . 和 * + . 匹配任意一个字符 *匹配0或多次前面出现 ...

  8. 玩转 Python 爬虫,需要先知道这些

    作者 | 叶庭云 来源 | 修炼Python 头图 | 下载于视觉中国 爬虫基本原理 1. URI 和 URL URI 的全称为 Uniform Resource Identifier,即统一资源标志 ...

  9. 一个月入门Python爬虫,轻松爬取大规模数据

    如果你仔细观察,就不难发现,懂爬虫.学习爬虫的人越来越多,一方面,互联网可以获取的数据越来越多,另一方面,像 Python这样一个月入门Python爬虫,轻松爬的编程语言提供越来越多的优秀工具,让爬虫 ...

最新文章

  1. Redis学习资料整理
  2. Framework7 4.1.0 发布,全功能 HTML 框架
  3. 关于抢红包的_抢红包系统设计与设计
  4. 照片处理和分享的思路
  5. Linux mysql federated_MySQL的FEDERATED引擎实现类Oracle的DBlink
  6. lower_case_table_names=1 启动报错 mysql8.0
  7. sqlite_orm sync_schema源码即翻译
  8. tqdm使用(Python进度条)
  9. [数据结构]A*寻路算法
  10. conda: command not found
  11. 2021-10-13
  12. android中常用的宏,iOS-开发中常用的宏有哪些?
  13. IDEA合并SVN分支代码到主干
  14. 华硕Armoury crate 奥创控制中心 卡在安装安装已连接设备中,安装失败,请重新启动,网络连接失败(-101)
  15. oracle mysql 同义词_Oracle数据库同义词
  16. Home Assistant 自动化
  17. java容器之Map
  18. todolist从无到有
  19. 微信系多商户商城完整部署步骤
  20. Canvas箭头动画

热门文章

  1. oracle--存储过程--bai
  2. MySQL在Windows和Linux减少数据库
  3. 安装官方 Synaptics 驱动,终于解决 HP Pavilion G4 笔记本 讨厌的触摸板锁定问题!...
  4. SYBASE性能优化
  5. JZOJ 3456. 【NOIP2013模拟联考3】恭介的法则(rule)
  6. 吴裕雄--天生自然 物理学习与探索笔记:磁场、磁感线以及电磁感应、回旋加速器...
  7. 【转】无法打开登录所请求的数据库 xxxx。登录失败。 用户 'xxxxx' 登录失败。...
  8. navicat premium相关应用(将oracle数据库迁移到mysql等)
  9. [二次开发][Discuz!X] Discuz!二次开发基本知识
  10. java中的类、成员变量、方法的修饰符。