1.settings.py里面的参数说明

每个参数其对应的官方得文档的网址

# -*- coding: utf-8 -*-# Scrapy settings for tencent project
#
# For simplicity, this file contains only settings considered important or
# commonly used. You can find more settings consulting the documentation:
#
#     https://doc.scrapy.org/en/latest/topics/settings.html
#     https://doc.scrapy.org/en/latest/topics/downloader-middleware.html
#     https://doc.scrapy.org/en/latest/topics/spider-middleware.htmlBOT_NAME = 'tencent'SPIDER_MODULES = ['tencent.spiders']
#  新建一个爬虫会在什么位置
NEWSPIDER_MODULE = 'tencent.spiders'# LOG_LEVEL = "WARNING"# Crawl responsibly by identifying yourself (and your website) on the user-agent
# 浏览器的标识
# USER_AGENT = 'tencent (+http://www.yourdomain.com)'# Obey robots.txt rules
# 是否遵守robots协议
ROBOTSTXT_OBEY = True# Configure maximum concurrent requests performed by Scrapy (default: 16)
# 设置最大并发请求
#CONCURRENT_REQUESTS = 32# Configure a delay for requests for the same website (default: 0)
# See https://doc.scrapy.org/en/latest/topics/settings.html#download-delay
# See also autothrottle settings and docs
# 下载延迟
#DOWNLOAD_DELAY = 3
# The download delay setting will honor only one of:
# 每个域名的最大并发请求数
#CONCURRENT_REQUESTS_PER_DOMAIN = 16
# 每个IP的最大并发请求数
#CONCURRENT_REQUESTS_PER_IP = 16# Disable cookies (enabled by default)
# cookies 是否开启,默认是被开启来的
#COOKIES_ENABLED = False# Disable Telnet Console (enabled by default)
# Telnet 插件是否开启
#TELNETCONSOLE_ENABLED = False# Override the default request headers:
# 默认请求头
DEFAULT_REQUEST_HEADERS = {'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8','Accept-Language': 'en',
}# Enable or disable spider middlewares
# See https://doc.scrapy.org/en/latest/topics/spider-middleware.html
# 爬虫中间键
#SPIDER_MIDDLEWARES = {
#    'tencent.middlewares.TencentSpiderMiddleware': 543,
#}# Enable or disable downloader middlewares
# See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html
# 下载中间键
#DOWNLOADER_MIDDLEWARES = {
#    'tencent.middlewares.TencentDownloaderMiddleware': 543,
#}# Enable or disable extensions
# See https://doc.scrapy.org/en/latest/topics/extensions.html
# 设置插件
#EXTENSIONS = {
#    'scrapy.extensions.telnet.TelnetConsole': None,
#}# Configure item pipelines
# See https://doc.scrapy.org/en/latest/topics/item-pipeline.html
# 设置 pipelines
ITEM_PIPELINES = {'tencent.pipelines.TencentPipeline': 300,
}# Enable and configure the AutoThrottle extension (disabled by default)
# See https://doc.scrapy.org/en/latest/topics/autothrottle.html
# 通过设置下面的参数可以让爬虫的速度变慢一点
#AUTOTHROTTLE_ENABLED = True
# The initial download delay
#AUTOTHROTTLE_START_DELAY = 5
# The maximum download delay to be set in case of high latencies
#AUTOTHROTTLE_MAX_DELAY = 60
# The average number of requests Scrapy should be sending in parallel to
# each remote server
#AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0
# Enable showing throttling stats for every response received:
#AUTOTHROTTLE_DEBUG = False# Enable and configure HTTP caching (disabled by default)
# 有关HTTP缓存设置
# See https://doc.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings
#HTTPCACHE_ENABLED = True
#HTTPCACHE_EXPIRATION_SECS = 0
#HTTPCACHE_DIR = 'httpcache'
#HTTPCACHE_IGNORE_HTTP_CODES = []
#HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'

2. 在settings.py里面定义好的配置或者参数怎样在爬虫和pipelines等里面用呢?

(1)    在其他py文件通过  from ...  import ... 的方式直接导入就行

          想在那个文件用,直接导入直接用就行

(2) 可以使用   .settings 的方式, 因为是一个字典,

可以通过   .settings["配置或参数名"]  或者   .settings.get("配置或参数名")

例如在爬虫文件里的parese(self,response) 里面进行

       self.settings["配置或参数名"]   或者   self.settings.get("配置或参数名")

在pipelines里面 def process_item(self, item, spider) 的方法里面,

   spider.settings["配置或参数名"]   或者   spider.settings.get("配置或参数名")

Scrapy框架的学习(8.scrapy中settings.py里面配置说明以及怎样设置配置或者参数以及怎样使用)相关推荐

  1. Scrapy框架的学习(4.scrapy中的logging模块记录日志文件以及普通的项目中使用)

    logging模块使用 为了让我们自己希望输出到终端的内容能容易看一些: 我们可以在setting中设置log级别 在setting中添加一行(全部大写):LOG_LEVEL = "WARN ...

  2. Scrapy框架的学习(9.Scrapy中的CrawlSpider类的作用以及使用,实现优化的翻页爬虫)

    1.CrawlSpider类通过一些规则(rules),使对于链接(网页)的爬取更具有通用性, 换句话说,CrawlSpider爬虫为通用性的爬虫, 而Spider爬虫更像是为一些特殊网站制定的爬虫. ...

  3. Scrapy框架的学习(2.scrapy入门,简单爬取页面,并使用管道(pipelines)保存数据)

    上个博客写了:  Scrapy的概念以及Scrapy的详细工作流程 https://blog.csdn.net/wei18791957243/article/details/86154068 1.sc ...

  4. Scrapy框架的学习(10.Scrapy中的模拟登陆(使用cookie模拟登陆))

    1. 为什么需要模拟登陆? 获取cookie,能够爬取登陆后的页面的数据 2.使用cookie模拟登陆的场景 (1) cookie过期时间很长,常见于一些不规范的网站 (2) 能在cookie过期之前 ...

  5. Scrapy框架的学习(12. scrapy中的模拟登陆,发送post请求模拟登陆)

    1.在有的网站的的登录的界面上,有用户名以及输入密码的输入框 然后输入账号和密码进去,点击登录,后台就会把得到的数据发送过去,验证之后然后就登录成功了,就会跳转到 响应的登录之后的网站 2. 我们可以 ...

  6. Scrapy框架的学习(11.scrapy框架中的下载中间件的使用(DownloaderMiddlewares))

    1.Downloader Middlewares (下载中间键):引擎会先把Requets对象交给下载中间键再然后交给Downloader 2.使用方法: (1) 编写一个Downloader Mid ...

  7. Scrapy框架的学习(1.scrapy的概念以及scrapy的工作流程)

    scrapy的概念 1.为什么要学习Scrapy?  因为会让我们的爬虫更快.更强 2.什么是scrapy? (1) Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,我们只需要实现 ...

  8. scrapy框架_Python学习之Scrapy框架

    爬虫界江湖地位No.1 说起Python,不得不说到它的爬虫应用,由于Python的短小精悍,用它来开发爬虫应用是最合适不过了,基于Python抓取网页的库有很多,例如requests,beatifu ...

  9. scrapy框架菜鸟学习记录

    scrapy框架菜鸟学习记录 scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架.其可以应用在数据挖掘,信息处理或储存历史数据等一系列的程序中.其最初是为了页面抓取(更确切的说,网络抓 ...

最新文章

  1. 矮个男生不好找对象?某大厂程序员自称太高也难找对象!身高196cm,有房有车,却被嫌太高!...
  2. php 设置http 请求头信息,php设置http头
  3. Battery Historian 使用常用命令
  4. 一些常用正则表达解析
  5. cad镜像后标注尺寸数字反了_CAD画法大全
  6. 使用 Xshell 连接矩池云 GPU服务器
  7. 广西大学计算机硕导名单,导师-广西大学研究生院
  8. 简述数字电路在计算机的应用,数字电路应用举例
  9. 网站测试基本方法-22. 打印机测试
  10. Python最新官方教程中文版,火了!!
  11. 【SPSS】第3讲学习笔记——数据导入和查看
  12. [句子成分] 一、主语
  13. 嵌入式物联网技术开发指导349014857
  14. ListView嵌套viewpager 头部图片轮换,listview 进行下拉刷新
  15. 老板说“把系统升级到https”,我用一个脚本实现了,而且永久免费!​
  16. 笨办法学python 习题46-windows
  17. 解决Firefox浏览器无法打开在简书的任何网址
  18. springboot集成es7.2自定义注解创建索引
  19. Linux学生QT成绩查询系统大作业报告,GitHub - cxc1357/Student-Information-Manage-System: QT实现的学生信息管理系统,高程大作业...
  20. 什么软件可以文字转语音?这些软件值得收藏

热门文章

  1. python 曲线拟合_Python实现数学模型(插值、拟合和微分方程)
  2. 牛客题霸 SQL4 查找所有已经分配部门的员工的last_name和first_name以及dept_no
  3. Go——Artifactory的AQL查询以及json解析解决方案
  4. 牛客题霸 SQL1 查找最晚入职员工的所有信息
  5. JavaScript——对象合并解决方案
  6. 湘潭大学计算机科学收调剂吗,山西师范大学、华侨大学、湘潭大学接受研究生调剂!...
  7. 笔记·mybatis核心对象和全局配置文件
  8. Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
  9. JQuery-学习笔记02【基础——JQuery选择器】
  10. Android 图片加载框架Coil使用总结