我的Go+语言初体验——(4)零基础学习 Go+ 爬虫

“我的Go+语言初体验” | 征文活动进行中…

Go+ 语言非常适合编写爬虫程序,具有并发机制完善、并发数量大、占用资源少、运行速度快、部署方便的优点。
本文结合官方文档与 Go 语言的资料,循序渐进介绍 Go+ 爬虫编程,通过多个完整例程带你学习和编写爬虫程序。
本文全部例程已在 Go+ 环境下进行了测试。

1. 为什么用 Go+ 语言编写爬虫

网络爬虫的工作原理是通过检查 web 页面的 HTML 内容,并基于内容执行某种类型的行动。特别是提取当前页面的数据,以及通过抓取和分析暴露的链接,按照队列去爬取页面数据。

Go+ 语言非常适合编写爬虫程序,并且具有独特的优势:

  • 并发机制完善
  • 并发数量大
  • 占用资源少
  • 运行速度快
  • 部署方便

2. http.Get 方法实现简单请求

2.1 http.Get 方法说明

net 包封装了网络相关的功能,最常用的是 http 和 url。Go+ 语言可以使用 net/http 包实现请求网页。

http.Get 方法的基本语法如下:

resp, err := http.Get(“http://example.com/”)
参数:请求的目标 URL

向服务器发送一个 http get 请求,得到 response。

2.2 http.Get 获得网页的 html 源文件

我们首先用 http.Get 编写一个简单的爬虫程序。

【例程 1】http.Get 获得网页的 html 源文件

// 1. http.Get 获得网页的 html 源文件
package main
import ("fmt""io/ioutil""net/http"
)func main() {resp, _ := http.Get("http://www.baidu.com")defer resp1.Body.Close()contents, _ := ioutil.ReadAll(resp.Body)fmt.Println(string(contents))
}

运行【例程1】,可以抓取百度首页的 html 源文件。

数据太多,看不清楚?没有关系,我们可以把抓取的数据保存下来。

2.3 异常处理和网页保存

网络活动十分复杂,对网站的访问不一定都会成功,因此需要对爬取过程中的异常进行处理,否则爬虫在遇到异常时就会因发生运行错误。

导致异常的原因主要有:

  • 链接不上服务器
  • 远程URL不存在
  • 无网络
  • 触发了 HTTPError

我们以 CSDN 热榜网页为例,说明异常处理和数据保存,并将爬取的网页保存在 .vscode 目录下的 page01.html 文件中。

【例程 2】异常处理和网页保存

// 2. 抓取网页,异常处理和数据保存
package main
import ("fmt""io/ioutil""net/http""os"
)func main() {resp, err := http.Get("https://blog.csdn.net/rank/list")if err != nil {fmt.Printf("%s", err)os.Exit(1)}defer resp.Body.Close()if resp.StatusCode == http.StatusOK {fmt.Println(resp.StatusCode)}f, err := os.OpenFile("csdnPage01.html", os.O_RDWR|os.O_CREATE|os.O_APPEND, os.ModePerm)if err != nil {panic(err)return}defer f.Close()buf := make([]byte, 1024)for {n, _ := resp.Body.Read(buf)if 0 == n {break}f.WriteString(string(buf[:n]))}
}

加入异常处理后,可以处理网页访问中发生的异常,可以保证从服务器成功获取网页。

但是,我们真的抓到了所要的网页吗?打开 csdnPage01.html 文件,如下图所示。

【例程 2】确实成功抓取了 CSDN 热榜页面中的一些内容,但关键的热榜文章的具体内容并没有抓到。没有关系,我们一步步来尝试。


3. client.Get 方法实现发起请求

3.1 Client 对象说明

Client 方法是 http 包内部发起请求的组件,可以控制请求的超时、重定向和其它设置。

Client 的定义如下:

type Client struct {Transport     RoundTripper // 超时控制管理CheckRedirect func(req *Request, via []*Request) error // 控制重定向Jar           CookieJar // 管理 Cookie 的对象Timeout       time.Duration // 限制建立连接的时间
}

Client 的简单调用方法与 http.Get 方法类似,例如:

resp, err := client.Get(“http://example.com”)
// 参数:请求的目标 URL

3.2 控制 HTTP 客户端的头结构

更加常用地,要在请求的时候设置头参数、cookie、证书验证等参数,可以在使用 Client 时,先构造一个 Request 再调用 Client.Do() 方法。

【例程 3】控制 HTTP 客户端的头结构

// 3. 控制 HTTP 客户端的头结构
package mainimport ("encoding/json""fmt""io/ioutil""net/http""os"
)func checkError(err error) {if err != nil {fmt.Printf("%s", err)os.Exit(1)}
}func main() {url := "https://blog.csdn.net/youcans"  // 生成 urlclient := &http.Client{}  // 生成 clientreq, err := http.NewRequest("GET", url, nil)  // 提交请求checkError(err)  // 异常处理// 自定义Headercookie_str := "your cookie" //  从浏览器复制的 cookie 字符串req.Header.Set("Cookie", cookie_str)userAgent_str := "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)"req.Header.Set("User-Agent", userAgent_str)  // 生成 User-Agentresp, err := client.Do(req)  // 处理返回结果checkError(err)defer resp.Body.Close()  // 关闭相关链接// 状态码检验 (http.StatusOK=200)if resp.StatusCode == http.StatusOK {fmt.Println(resp.StatusCode)}/*contents, err := ioutil.ReadAll(resp.Body)checkError(err)fmt.Println(string(contents))*/f, err := os.OpenFile("csdnPage02.html", os.O_RDWR|os.O_CREATE|os.O_APPEND, os.ModePerm)if err != nil {panic(err)return}defer f.Close()buf := make([]byte, 1024)for {n, _ := resp.Body.Read(buf)if 0 == n {break}f.WriteString(string(buf[:n]))}
}

【例程 3】成功抓取了 CSDN 网站的 youcans 页面。打开 csdnPage01.html 文件,显示如下:

3.3 解析网页数据

对于获取的网页源代码需要进行解析,以得到我们需要的数据。

依据响应的不同类型,可以选择不同的方法:

  • 对于 html 格式的数据,可以选择正则表达式或者 Css 选择器获取所需的内容;

  • 对于 json 格式的数据,可以使用 encoding/json 库对获取的数据反序列化,获取所需的内容。

正则表达式是进行模式匹配和文本操纵的的工具。Go+ 语言通过 regexp 包为正则表达式提供支持,采用 RE2 语法,与 Go、Python 语言的正则一致。

【函数说明】func MustCompile(str string) *Regexp

通过 MustCompile 可以创建一个 Regexp 对象
MustCompile 用来解析正则表达式 str 是否合法
如果合法,则返回一个 Regexp 对象;如果不合法,则抛出异常

例如:

rp :=regexp.MustCompile(`<div class="hd">(.*?)</div>`)
// 查找并返回以 <div class="hd"> 开头,以 </div> 结尾的字符串
titleRe := regexp.MustCompile(`<span class="title">(.*?)</span>`)
// 查找并返回以 <span class="title"> 开头,以 </span> 结尾的字符串

**【函数说明】func (re *Regexp) FindAllStringSubmatch(s string, n int) string **

在 s 中查找 re 中编译好的正则表达式,并返回所有匹配的内容
同时返回子表达式匹配的内容

**【函数说明】func (re *Regexp) FindStringSubmatchIndex(s string) []int **

在 s 中查找 re 中编译好的正则表达式,并返回第一个匹配的位置
同时返回子表达式匹配的位置

【函数说明】func (re *Regexp) FindStringSubmatch(s string) []string

在 s 中查找 re 中编译好的正则表达式,并返回第一个匹配的内容
同时返回子表达式匹配的内容

【例程 4】解析网页数据

// 4. 解析网页数据
package main
import ("fmt""io/ioutil""net/http""os""regexp""strconv""strings""time"
)// 异常处理
func checkError(err error) {if err != nil {fmt.Printf("%s", err)panic(err)}
}// URL 请求
func fetch(url string) string {fmt.Println("Fetch Url", url)client := &http.Client{}                     // 生成 clientreq, err := http.NewRequest("GET", url, nil) // 提交请求checkError(err)// 自定义 HeaderuserAgent_str := "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; http://www.baidu.com)"req.Header.Set("User-Agent", userAgent_str) // 生成 User-Agentresp, err := client.Do(req)                 // 处理返回结果checkError(err)defer resp.Body.Close()// 状态码检验 (http.StatusOK=200)if resp.StatusCode == 200 {body, err := ioutil.ReadAll(resp.Body) // 读取resp的body内容checkError(err)return string(body)} else {fmt.Printf("%s", err)return ""}
}// 解析页面
func parseUrls(url string, f *os.File) {//func parseUrls(url string) {body := fetch(url)body = strings.Replace(body, "\n", "", -1) // 去除 body 内容中的回车符rp := regexp.MustCompile(`<div class="hd">(.*?)</div>`)titleRe := regexp.MustCompile(`<span class="title">(.*?)</span>`)idRe := regexp.MustCompile(`<a href="https://movie.douban.com/subject/(\d+)/"`)items := rp.FindAllStringSubmatch(body, -1) // 解析符合正则表达式的结果for _, item := range items {idItem := idRe.FindStringSubmatch(item[1])[1]       // 找第一个符合的结果 IDtitleItem := titleRe.FindStringSubmatch(item[1])[1] // 找第一个符合的结果 TITLE//fmt.Println(idItem, titleItem)_, err := f.WriteString(idItem + "\t" + titleItem + "\n")checkError(err)}return
}func main() {f, err := os.Create("topMovie.txt") // 创建文件defer f.Close()_, err = f.WriteString("ID\tTitle\n") // 描述字段checkError(err)start := time.Now()// 抓取全部 Top250for i := 0; i < 10; i++ {parseUrls("https://movie.douban.com/top250?start="+strconv.Itoa(25*i), f)}  // 把数字转成字符串elapsed := time.Since(start)fmt.Printf("Took %s", elapsed)
}

【例程 4】中的 URL 请求获取网页数据的程序内容与【例程3】的方法相同,只是将其封装为函数 fetch() 以方便使用。

【例程 4】从豆瓣抓取了 Top250 影片的信息,运行后控制台显示内容为:

Fetch Url https://movie.douban.com/top250?start=0
Fetch Url https://movie.douban.com/top250?start=25
Fetch Url https://movie.douban.com/top250?start=50
Fetch Url https://movie.douban.com/top250?start=75
Fetch Url https://movie.douban.com/top250?start=100
Fetch Url https://movie.douban.com/top250?start=125
Fetch Url https://movie.douban.com/top250?start=150
Fetch Url https://movie.douban.com/top250?start=175
Fetch Url https://movie.douban.com/top250?start=200
Fetch Url https://movie.douban.com/top250?start=225

文件 topMovie.txt 保存的内容为:

ID Title
1292052 肖申克的救赎
1291546 霸王别姬
1292720 阿甘正传

1292528 猜火车
1307394 千年女优

说明:【例程4】参考了资深工程师 【Golang编程】的文章:用Golang写爬虫(一),特此致谢!作者进行了改编,并在 Go+ 环境进行了测试。


3. 总结

Go+ 语言非常适合编写爬虫程序,这也是 Go+ 的优势领域。

本文结合官方文档与 Go 语言的资料,循序渐进介绍 Go+ 爬虫编程,通过多个完整例程带你学习和编写爬虫程序。

本文中的全部例程都已在 Go+ 环境下进行调试和运行测试。

高并发是 Go+ 的重要机制和优点,在爬虫中也能非常有效,我们将在后续文中进行学习。


【本节完】

版权声明:

原创作品,转载必须标注原文链接:(https://blog.csdn.net/youcans/article/details/121644252)

【例程4】参考了资深工程师 “Golang编程”的文章:用Golang写爬虫(一),作者进行了改编,特此致谢。

Copyright 2021 youcans, XUPT

Crated:2021-11-30

欢迎关注『我的Go+语言初体验』系列,持续更新中…

我的Go+语言初体验——(1)超详细安装教程
我的Go+语言初体验——(2) IDE 详细安装教程
我的Go+语言初体验——(3)Go+ 数据类型
我的Go+语言初体验——(4)零基础学习 Go+ 爬虫

“我的Go+语言初体验” | 征文活动进行中…

我的Go+语言初体验——(4)零基础学习 Go+ 爬虫相关推荐

  1. r语言pls分析_零基础学习R语言分析GEO

    关于零基础用R语言分析GEO的视频已更新完,发布在B站,有兴趣的小伙伴可以移驾到B站,我的B站号:I_am_Becky 之前录制过一系列关于零代码分析GEO数据的,但是这样画出来的图太low了,所以学 ...

  2. 电脑基础c语言,C语言经验: 如何从零基础学习C语言?

    C语言是面向过程的,而C ++是面向对象的C和C ++之间的区别: C是一种结构化语言,其重点是算法和数据结构. 在C程序设计中,首先要考虑的是如何通过过程来处理输入(或环境条件)以获得输出(或实现过 ...

  3. 零基础学习python爬虫_教你零基础如何入门Python爬虫!

    Python爬虫好学吗?看你怎么学了.如果是自学,会难一些,毕竟有难题很难找到人帮你解答,很容易半途而废.要是你找到了一家靠谱的学校,就会容易很多.不过,这里我想教你入门Python爬虫. 一:爬虫准 ...

  4. 零基础学python爬虫-零基础学习python_爬虫(53课)

    1.Url的格式简单介绍,如下图: 2.我们要对网站进行访问,需要用到python中的一个模块或者说一个包吧,urllib(这个在python2中是urllib+urllib2,python3将这两个 ...

  5. python爬虫urllib文档_11.【文本】Urllib(下) - 零基础学习Python爬虫系列

    本文是视频av20148524的相关代码文档 # urllib(下) # post # post 和 get 传递参数同时存在的一个url url = "http://bbs.mumayi. ...

  6. 我的Go+语言初体验——(7)Go+ 分数型有理数数据类型

    我的Go+语言初体验--(7)Go+ 分数型有理数数据类型 "我的Go+语言初体验" | 征文活动进行中- 更多内容,请参阅: 我的Go+语言初体验--(7)Go+ 分数型有理数数 ...

  7. 我的Go+语言初体验——(6)整型有理数数据类型

    我的Go+语言初体验--(6)整型有理数数据类型 "我的Go+语言初体验" | 征文活动进行中- Go+ 语言使用后缀 'r' 表示有理数,支持整型.分数型.浮点型三种有理数数据类 ...

  8. 我的Go+语言初体验——(5)Go+ 基本语法之 Switch

    我的Go+语言初体验--(5)Go+ 基本语法之 Switch "我的Go+语言初体验" | 征文活动进行中- Go+ 语言中提供多路分支条件语句 switch, 用于在不同条件下 ...

  9. python学起来难不难-零基础学Python爬虫难不难?要怎么学?

    零基础学Python爬虫难不难?要怎么学?众所周知,Python是最容易上手的编程语言,如果有一定基础,学会Python爬虫也是分分钟钟的事.对于零基础的学习者来说,Python爬虫也是比较简单的,只 ...

最新文章

  1. MySQL 中的运算符
  2. 为了在元宇宙里摸到东西,扎克伯格整出了一款新电子皮肤,成本6美元
  3. bzoj1131: [POI2008]Sta
  4. 零字节WSASend,WSARecv
  5. 全国职业院校技能大赛软件测试题目,我校喜获2018全国职业院校技能大赛“软件测试”赛项一等奖...
  6. c语言里 如何取得线程的lpparameter'参数,请问线程函数如何访问对话框类中的变量...
  7. 详解策略分析师的日常是怎么样的?策略数据代码篇
  8. cookie知识,小应用:记住用户名;记录用户浏览记录
  9. ajax手机号码验证,Jquery Validation 插件验证手机号
  10. 中国首家干线物流联合创新中心成立
  11. keil5——常见报错【cannot load flash device description】
  12. 线性表链式存储的基本操作
  13. XcodeGhost事件或成年内最严重信息安全事件
  14. ROS与PCL:在setconditionfunciton时,无法使用std::bind
  15. 【机器学习】PRC(PR曲线)
  16. 【耀杨闯荡华儿街】当曹阿门问起hascode()和equals()方法“上篇”
  17. Windows电脑多屏显示器设置方法怎么找回副屏显示器隐藏的敬业签软件
  18. Linux - 如何查看Ubuntu系统的版本信息
  19. 【报名】RT-Thread师资培训,苏州大学王怀宜教授主讲!
  20. 如果你没读懂《骇客帝国》

热门文章

  1. 电脑公司win11 64位旗舰版镜像文件v2021.07
  2. 重装系统win10提示磁盘布局不受UEFI固件支持怎么办
  3. html语言循环语句,Scala @功能/语言的HTML文档 - for循环,如果语句等
  4. Mybatis源码分析之(六)mybatis拦截器(Interceptor)的实现原理
  5. JAVA对象集合转化为xml转换_xml转为Map集合以及对象转化为xml
  6. actionscript 3.0 怎么写android 程序,(ActionScript3.0笔记)第一个程序HelloWorld!
  7. python教学视频r_R Tutorial
  8. java panel frame_Java 版 (精华区)--Frame和Panel的区别【转载】
  9. android plugin 镜像,cordova-plugin-screen-orientation
  10. android的ui怎么做到流畅,android提高UI的流畅度