本篇是使用 nodejs 写爬虫系列教程的第一篇, 介绍了使用 nodejs 写爬虫过程中常用的模块和一些必须掌握的 js 语法

<!-- more -->

常用模块

常用模块有以下几个:

  1. fs-extra
  2. superagent
  3. cheerio
  4. log4js
  5. sequelize
  6. chalk
  7. puppeteer

fs-extra

使用 async/await 的前提是必须将接口封装成 promise, 看一个简单的例子:

const sleep = (milliseconds) => {return new Promise((resolve, reject) => {setTimeout(() => resolve(), milliseconds)})
}
​
const main = async  () => {await sleep(5000);console.log('5秒后...');
}
​
main();

通过在 async 函数中使用 await + promise 的方式来组织异步代码就像是同步代码一般,非常的自然和有助于我们分析代码的执行流程。

在 node 中, fs 模块是一个很常用的操作文件的 native 模块,fs (file system) 模块提供了和文件系统相关的一些同步和异步的 api, 有时候使用同步 api 非常有必要,比如你要在一个自己写的模块中的在访问文件后导出一些接口时,这个时候用同步的 api 就很实用。看个例子:

const path = require('path');
const fs = require('fs-extra');
const { log4js } = require('../../config/log4jsConfig');
const log = log4js.getLogger('qupingce');
​
const createModels = () => {const models = {};const fileNames = fs.readdirSync(path.resolve(__dirname, '.'));
​fileNames.filter(fileName => fileName !== 'index.js').map(fileName => fileName.slice(0, -3)).forEach(modelName => {log.info(`Sequelize define model ${modelName}!`);models[modelName] = require(path.resolve(__dirname, `./${modelName}.js`));})return models;
}
​
module.exports = createModels();

这个模块访问了当前目录下所有的 model 模块并导出 models, 如果是使用异步接口也就是 fs.readdir, 这样的话你在别的模块导入这个模块是获取不到 models 的, 原因是 require 是同步操作,而接口是异步的,同步代码无法立即获得异步操作的结果。

为了充分发挥 node 异步的优势,我们还是应该尽量使用异步接口。

我们完全可以使用 fs-extra 模块来代替 fs 模块, 类似的模块还有 mz。fs-extra 包含了所有的 fs 模块的接口,还对每个异步接口提供了promise 支持,更棒的是 fs-extra 还提供了一些其它的实用文件操作函数, 比如删除移动文件的操作。更详细的介绍请查看官方仓库 fs-extra。

superagent

superagent 是一个 node 的 http client, 可以类比 java 中的 httpclient 和 okhttp, python 中的 requests。可以让我们模拟 http 请求。superagent 这个库有很多实用的特点。

  1. superagent 会根据 response 的 content-type 自动序列化,通过 response.body 就可以获取到序列化后的返回内容
  2. 这个库会自动缓存和发送 cookies, 不需要我们手动管理 cookies
  3. 再来就是它的 api 是链式调用风格的,调用起来很爽,不过使用的时候要注意调用顺序
  4. 它的异步 api 都是返回 promise的。

非常方便有木有 。官方文档就是很长的一页,目录清晰,很容易就搜索到你需要的内容。最后,superagent 还支持插件集成,比如你需要在超时后自动重发,可以使用 superagent-retry。更多插件可以去 npm 官网上搜索关键字 superagent-。更多详情查看官方文档superagent

// 官方文档的一个调用示例
request.post('/api/pet').send({ name: 'Manny', species: 'cat' }).set('X-API-Key', 'foobar').set('Accept', 'application/json').then(res => {alert('yay got ' + JSON.stringify(res.body));});

cheerio

写过爬虫的人都知道, 我们经常会有解析 html 的需求, 从网页源代码中爬取信息应该是最基础的爬虫手段了。python 中有 beautifulsoup, java 中有 jsoup, node 中有 cheerio。

cheerio 是为服务器端设计的,给你近乎完整的 jquery 体验。使用 cheerio 来解析 html 获取元素,调用方式和 jquery 操作 dom 元素用法完全一致。而且还提供了一些方便的接口, 比如获取 html, 看一个例子:

const cheerio = require('cheerio')
const $ = cheerio.load('<h2 class="title">Hello world</h2>')
​
$('h2.title').text('Hello there!')
$('h2').addClass('welcome')
​
$.html()
//=> <h2 class="title welcome">Hello there!</h2>

官方仓库: cheerio

log4js

log4j 是一个为 node 设计的日志模块。 场景简单情况下可以考虑使用 debug 模块。 log4js 比较符合我对日志库的需求,其实他俩定位也不一样,debug 模块是为调试而设计的,log4js 则是一个日志库,肯定得提供文件输出和分级等常规功能。

log4js 模块看名字有点向 java 中很有名的日志库 log4j 看齐的节奏。log4j 有以下特点:

  1. 可以自定义 appender(输出目标),lo4js 甚至提供了输出到邮件等目标的 appender
  2. 通过组合不同的 appender, 可以实现不同目的的 logger(日志器)
  3. 提供了日志分级功能,官方的 FAQ 中提到了如果要对 appender 实现级别过滤,可以使用 logLevelFilter
  4. 提供了滚动日志和自定义输出格式

下面通过我最近一个爬虫项目的配置文件来感受以下这个库的特点:

const log4js = require('log4js');
const path = require('path');
const fs = require('fs-extra');
​
const infoFilePath = path.resolve(__dirname, '../out/log/info.log');
const errorFilePath = path.resolve(__dirname, '../out/log/error.log');
log4js.configure({appenders: {dateFile: {type: 'dateFile',filename: infoFilePath,pattern: 'yyyy-MM-dd',compress: false},errorDateFile: {type: 'dateFile',filename: errorFilePath,pattern: 'yyyy-MM-dd',compress: false,},justErrorsToFile: {type: 'logLevelFilter',appender: 'errorDateFile',level: 'error'},out: {type: 'console'}},categories: {default: {appenders: ['out'],level: 'trace'},qupingce: {appenders: ['out', 'dateFile', 'justErrorsToFile'],level: 'trace'}}
});
​
​
const clear = async () => {const files = await fs.readdir(path.resolve(__dirname, '../out/log'));for (const fileName of files) {fs.remove(path.resolve(__dirname, `../out/log/${fileName}`));}
}
​
​
module.exports = {log4js,clear
}

sequelize

写项目我们往往会有持久化的需求,简单的场景可以使用 JSON 保存数据,如果数据量比较大还要便于管理,那么我们就要考虑用数据库了。如果是操作 mysql 和 sqllite 建议使用 sequelize, 如果是 mongodb, 我更推荐用专门为 mongodb 设计的 mongoose

sequelize 有几点我觉得还是有点不太好,比如默认生成 id (primary key), createdAtupdatedAt

抛开一些自作主张的小毛病,sequelize 设计的还是很好的。内置的操作符,hooks, 还有 validators 很有意思。sequelize 还提供了 promise 和 typescript 支持。如果是使用 typescript 开发项目,还有另外一个很好的 orm 选择 : typeorm。更多内容可以查看官方文档: sequelize

chalk

chalk 中文意思是粉笔的意思,这个模块是 node 很有特色和实用的一个模块,它可以为你输出的内容添加颜色, 下划线, 背景色等装饰。当我们写项目的时候往往需要记录一些步骤和事件,比如打开数据库链接,发出 http 请求等。我们可以适当使用 chalk 来突出某些内容,例如请求的 url 加上下划线。

const logRequest = (response, isDetailed = false) => {const URL = chalk.underline.yellow(response.request.url);const basicInfo = `${response.request.method} Status: ${response.status} Content-Type: ${response.type} URL=${URL}`;if (!isDetailed) {logger.info(basicInfo);} else {const detailInfo = `${basicInfo}ntext: ${response.text}`;logger.info(detailInfo);}
};

调用上面的 logRequest效果:

更多内容查看官方仓库chalk

puppeteer

如果这个库没听说过,你可能听说过 selenium。puppeteer 是 Google Chrome 团队开源的一个通过 devtools 协议操纵 chrome 或者Chromium 的 node 模块。Google 出品,质量有所保证。这个模块提供了一些高级的 api, 默认情况下,这个库操纵的浏览器用户是看不到界面的,也就是所谓的无头(headless)浏览器。当然可以通过配置一些参数来启动有界面的模式。在 chrome 中还有一些专门录制 puppeteer 操作的扩展, 比如Puppeteer Recorder。使用这个库我们可以用来抓取一些通过 js 渲染而不是直接存在于页面源代码中的信息。比如 spa 页面,页面内容都是 js 渲染出来的。这个时候 puppeteer 就为我们解决了这个问题,我们可以调用 puppeteer 在页面某个标签出现时获取到页面当时的渲染出来的 html。事实上,往往很多比较困难的爬虫解决的最终法宝就是操纵浏览器。

前置的 js 语法

async/await

首先要提的就是 async/await, 因为 node 在很早的时候(node 8 LTS)就已经支持 async/await, 现在写后端项目没理由不用 async/await了。使用 async/await 可以让我们从回调炼狱的困境中解脱出来。这里主要提一下关于使用async/await 时可能会碰到的问题

使用 async/await 怎样并发?

来看一段测试代码:

const sleep = (milliseconds) => {return new Promise((resolve, reject) => {setTimeout(() => resolve(), milliseconds)})
}
​
const test1 = async () => {for (let i = 0, max = 3; i < max; i++) {await sleep(1000);}
}
​
const test2 = async () => {Array.from({length: 3}).forEach(async () => {await sleep(1000);});
}
​
const main = async  () => {console.time('测试 for 循环使用 await');await test1();console.timeEnd('测试 for 循环使用 await');
​console.time('测试 forEach 调用 async 函数')await test2();console.timeEnd('测试 forEach 调用 async 函数')
}
​
main();

运行结果是:

测试 for 循环使用 await: 3003.905ms
测试 forEach 调用 async 函数: 0.372ms

我想可能会有些人会认为测试 forEach 的结果会是 1 秒左右,事实上测试2等同于以下代码:

const test2 = async () => {// Array.from({length: 3}).forEach(async () => {//     await sleep(1000);// });Array.from({length: 3}).forEach(() => {sleep(1000);});
}

从上面的运行结果也可以看出直接在 for 循环中使用 await + promise, 这样等同于同步调用, 所以耗时是 3 秒左右。如果要并发则应该直接调用 promise, 因为 forEach 是不会帮你 await 的,所以等价于上面的代码,三个任务直接异步并发了。

处理多个异步任务

上面的代码还有一个问题,那就是测试2中并没有等待三个任务都执行完就直接结束了,有时候我们需要等待多个并发任务结束之后再执行后续任务。其实很简单,利用下 Promise 提供的几个工具函数就可以了。

const sleep = (milliseconds, id='') => {return new Promise((resolve, reject) => {setTimeout(() => {console.log(`任务${id}执行结束`)resolve(id);}, milliseconds)})
}const test2 = async () => {const tasks = Array.from({length: 3}).map((ele, index) => sleep(1000, index));const resultArray = await Promise.all(tasks);console.log({ resultArray} )console.log('所有任务执行结束');
}const main = async  () => {console.time('使用 Promise.all 处理多个并发任务')await test2();console.timeEnd('使用 Promise.all 处理多个并发任务')
}main()

运行结果:

任务0执行结束
任务1执行结束
任务2执行结束
{ resultArray: [ 0, 1, 2 ] }
所有任务执行结束
使用 Promise.all 处理多个并发任务: 1018.628ms

除了 Promise.all, Promise 还有 race 等接口,不过最常用应该就是 all 和 race 了。

正则表达式

正则表达式是处理字符串强有力的工具。核心是匹配,由此衍生出提取,查找, 替换的等操作。

有时候我们通过 cheerio 中获取到某个标签内的文本时,我们需要提取其中的部分信息,这个时候正则表达式就该上场了。正则表达式的相关语法这里就不详细说明了, 入门推荐看廖雪峰的正则表达式教程。来看个实例:

// 服务器返回的 img url 是: /GetFile/getUploadImg?fileName=9b1cc22c74bc44c8af78b46e0ca4c352.png
// 现在我只想提取文件名,后缀名也不要
const imgUrl = '/GetFile/getUploadImg?fileName=9b1cc22c74bc44c8af78b46e0ca4c352.png';
const imgReg = //GetFile/getUploadImg?fileName=(.+)..+/;
const imgName = imgUrl.match(imgReg)[1];
console.log(imgName); // => 9b1cc22c74bc44c8af78b46e0ca4c352

暂时先介绍到这里了,后续有更多内容会继续补充。

本文为原创内容,首发于个人博客, 转载请注明出处。如果有问题欢迎邮件骚扰 ytj2713151713@gmail.com。

js foreach用法_使用 nodejs 写爬虫(一): 常用模块和 js 语法相关推荐

  1. 爬虫之 lxml模块和xpath语法

    爬虫之 lxml模块和xpath语法 对html或xml形式的文本提取特定的内容,就需要我们掌握lxml模块的使用和xpath语法. lxml模块可以利用XPath规则语法,来快速的定位HTML\XM ...

  2. golang http 返回html文件_用Golang写爬虫(三) - 使用goquery

    原文地址: https://strconv.com/posts/web-crawler-exercise-3/ 在写爬虫的时候,想要对HTML内容进行选择和查找匹配时通常是不直接写正则表达式的:因为正 ...

  3. python 爬虫框架对比_用Python写爬虫,用什么方式、框架比较好?

    以前只写过很简单的Python爬虫,直接用内置库实现,有没有谁用Python爬过规模较大的数据,用的是什么方法? 还有,采用现有的Python爬虫框架,相比与直接使用内置库,优势在哪?因为Python ...

  4. python爬虫课程设计过程_[Python]新手写爬虫全过程(已完成)

    今天早上起来,第一件事情就是理一理今天该做的事情,瞬间get到任务,写一个只用python字符串内建函数的爬虫,定义为v1.0,开发中的版本号定义为v0.x.数据存放?这个是一个练手的玩具,就写在tx ...

  5. python学完那部分能写爬虫_[Python]新手写爬虫全过程(已完成)

    今天早上起来,第一件事情就是理一理今天该做的事情,瞬间get到任务,写一个只用python字符串内建函数的爬虫,定义为v1.0,开发中的版本号定义为v0.x.数据存放?这个是一个练手的玩具,就写在tx ...

  6. python爬虫实验报告怎么写_[Python]新手写爬虫全过程(转)

    今天早上起来,第一件事情就是理一理今天该做的事情,瞬间get到任务,写一个只用python字符串内建函数的爬虫,定义为v1.0,开发中的版本号定义为v0.x.数据存放?这个是一个练手的玩具,就写在tx ...

  7. vue.js 天气插件_天气检查我的项目以学习Vue.js

    vue.js 天气插件 天气 (vue-weather) Weather checking me project for learning Vue.js. 天气检查我的项目以学习Vue.js. Vie ...

  8. nodejs入门开发与常用模块

    npm:NodeJs包管理器 express:服务器端比较流行的MVC框架,处理服务请求,路由转发,逻辑处理 http://socket.io:实现服务端和客户端socket通信解决方案 https: ...

  9. vue foreach用法_两年前端er,JS和Vue,面试被问了哪些问题呢?有点简单啊

    上午跟一个大学学妹聊天,聊起了她近期的一次面试. 她的概况,工作两年不到,薪资要求在8-10K之间,技术栈Vue,想在大一点的团队工作,因为之前都是一个人做前端. 以下是问及的一些问题(我做了一些简单 ...

最新文章

  1. 连这几个源码都没啃透,那面试高级开发的事等等再来!
  2. 超实用 Linux下通过VNC安装Oracle
  3. linux shell 把一个文件的前n行 拷贝到另一个文件中
  4. c# xml的增删改查操作 xmlDocument 的用法
  5. GIS实战应用案例100篇(十六)-CASS道路横断面线,如何折线变直线?
  6. 用cocos2dx实现模态对话框
  7. 10截图时屏幕变大_手机上网课、开视频会议,如何让屏幕变大一点?
  8. Android官方开发文档Training系列课程中文版:网络操作之网络管理
  9. 双十一快到了,快递却不干了?
  10. Oracle密码过期处理
  11. CH341ser(usb转串口)驱动
  12. java 生成pem_生成pem文件 - The NoteBook of EricKong - BlogJava
  13. 【移动应用趋势】2022 年值得关注的 15 大移动应用开发趋势
  14. 《C++程序设计》课程设计报告
  15. 分布式专题(1)- 计算机网络
  16. 罗克韦尔AB PLC RSLogix5000中计数器指令使用方法介绍
  17. Python super(钻石继承)
  18. 启动电脑时出现0xc000000f错误的解决办法
  19. Cesium 通过scaleByDistance设置远小近大的广告牌图形视觉效果
  20. EXCEL 怎么将公式应用到一列

热门文章

  1. Ubuntu 中python 2 升级 (切换)3
  2. python编写直角三角形边长公式_304不锈钢的重量计算公式,留着总有用处
  3. java 处理 url_Java URL处理 - Java 教程 - 自强学堂
  4. 苹果6sp内存可以扩展吗_苹果手机iPhone 12 mini能用6年吗?网友:可以
  5. python 遍历xml所有节点
  6. Java接口多线程并发测试 (一)
  7. [BZOJ2707]走迷宫
  8. 转一篇关于滑动窗口的讲解,挺详细的
  9. [Ruby][3] 条件语句
  10. 向服务器端提交数据的两种方式