来源:blog.csdn.net/weixin_44864260


爬虫四大步骤:

1.获取页面源代码

2.获取标签

3.正则表达式匹配

4.保存数据

1. 获取页面源代码

5个小步骤:
1.伪装成浏览器
2.进一步包装请求
3.网页请求获取数据
4.解析并保存
5.返回数据

代码:

import urllib.request,urllib.error #指定URL,获取页面数据#爬取指定urldef askUrl(url):  #请求头伪装成浏览器(字典)    head = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3776.400 QQBrowser/10.6.4212.400"}    #进一步包装请求    request = urllib.request.Request(url = url,headers=head)    #存储页面源代码    html = ""    try:      #页面请求,获取内容        response = urllib.request.urlopen(request)        #读取返回的内容,用"utf-8"编码解析        html = response.read().decode("utf-8")    except urllib.error.URLError as e:        if hasattr(e,"code"):            print(e.code)        if hasattr(e,"reson"):            print(e.reson)    #返回页面源代码    return html

2.获取标签

通过BeautifulSoup进一步解析页面源代码

from bs4 import BeautifulSoup #页面解析,获取数据

Beautiful Soup 将复杂 HTML 文档转换成一个复杂的树形结构,每个节点都是 Python 对象,可分为四大对象种类,这里主要用到Tag类的对象,还有三种,有兴趣可以自己去深入学习~~

#构建了一个BeautifulSoup类型的对象soup#参数为网页源代码和”html.parser”,表明是解析html的bs = BeautifulSoup(html,"html.parser")#找到所有class叫做item的div,注意class_有个下划线bs.find_all('div',class_="item")

3.正则表达式匹配

先准备好相应的正则表达式,然后在上面得到的标签下手

#Python正则表达式前的 r 表示原生字符串(rawstring)#该字符串声明了引号中的内容表示该内容的原始含义,避免了多次转义造成的反斜杠困扰#re.S它表示"."的作用扩展到整个字符串,包括“\n”#re.compile()编译后生成Regular Expression对象,由于该对象自己包含了正则表达式#所以调用对应的方法时不用给出正则字符串。#链接findLink = re.compile(r'',re.S)#找到所有匹配的#参数(正则表达式,内容)#[0]返回匹配的数组的第一个元素 link = re.findall(findLink,item)[0]

4.保存数据

两种保存方式

1.保存到Excel里

import xlwt #进行excel操作def saveData(dataList,savePath):  #创建一个工程,参数("编码","样式的压缩效果")    woke = xlwt.Workbook("utf-8",style_compression=0)    #创建一个表,参数("表名","覆盖原单元格信息")    sheet = woke.add_sheet("豆瓣电影Top250",cell_overwrite_ok=True)    #列明    col = ("链接","中文名字","英文名字","评分","标题","评分人数","概况")    #遍历列名,并写入    for i in range (7):        sheet.write(0,i,col[i])    #开始遍历数据,并写入    for i in range (0,250):        for j in range (7):            sheet.write(i+1,j,dataList[i][j])            print("第%d条数据"%(i+1))    #保存数据到保存路径    woke.save(savePath)    print("保存完毕")

结果文件:

2.保存到数据库

import sqlite3 #进行sql操作#新建表def initdb(dataPath):  #连接dataPath数据库,没有的话默认新建一个    conn = sqlite3.connect(dataPath)    #获取游标    cur = conn.cursor()    #sql语句    sql = '''        create table movie(        id Integer primary key autoincrement,        info_link text,        cname varchar ,        fname varchar ,        rating varchar ,        inq text,        racount varchar ,        inf text        )    '''    #执行sql语句    cur.execute(sql)    #提交事物    conn.commit()    #关闭游标    cur.close()    #关闭连接    conn.close()def savedb(dataList,dataPath):  #新建表    initdb(dataPath)    #连接数据库dataPath    conn = sqlite3.connect(dataPath)    #获取游标    cur = conn.cursor()    #开始保存数据    for data in dataList:        for index in range(len(data)):          #在每个数据字段两边加上""双引号            data[index] = str('"'+data[index]+'"')        #用","逗号拼接数据        newstr = ",".join(data)        #sql语句,把拼写好的数据放入sql语句        sql ="insert into movie(info_link,cname,fname,rating,inq,racount,inf)values(%s)"%(newstr)        print(sql)        #执行sql语句        cur.execute(sql)        #提交事务        conn.commit()    #关闭游标    cur.close()    #关闭连接    conn.close()    print("保存完毕")

结果文件:

爬取豆瓣TOP250的所有代码

from bs4 import BeautifulSoup #页面解析,获取数据import re #正则表达式import urllib.request,urllib.error #指定URL,获取页面数据import xlwt #进行excel操作import sqlite3 #进行sql操作def main():    baseUrl = "https://movie.douban.com/top250?start="    #1.爬取网页,并解析数据    dataList = getData(baseUrl)    # savePath=".\\豆瓣电影Top250.xls"    savePath = "movies.db"    #2.保存数据    # saveData(dateList,savePath)    savedb(dataList,savePath)#---正则表达式---#链接findLink = re.compile(r'',re.S)#电影名字findName = re.compile(r'(.*?)',re.S)#评分findRating = re.compile(r'(.*?)')#标题findInq = re.compile(r'(.*?)',re.S)#评分人数findCount = re.compile(r'(.*?)人评价')#电影信息findInf = re.compile(r'

(.*?)

',re.S)#1.爬取网页def getData(baseUrl): dataList = [] for i in range(10): html = askUrl(baseUrl + str(i * 25)) # 2.逐一解析数据 bs = BeautifulSoup(html,"html.parser") for item in bs.find_all('div',class_="item"): data = [] item = str(item) #链接 link = re.findall(findLink,item)[0] #名字 name = re.findall(findName,item) if len(name) == 1: cName = name[0] fName = " " else: name[1] = name[1].replace(" / ","") cName = name[0] fName = name[1] #评分 rating = re.findall(findRating,item)[0] #标题 inq = re.findall(findInq,item) if len(inq) < 1: inq = " " else: inq= inq[0] #评分人数 racount = re.findall(findCount,item)[0] #电影信息 inf = re.findall(findInf,item)[0] inf = re.sub("...
(\s?)"," ",inf) inf = re.sub("/"," ",inf) inf = inf.strip() #添加一部电影的信息进data data.append(link) data.append(cName) data.append(fName) data.append(rating) data.append(inq) data.append(racount) data.append(inf) dataList.append(data) return dataList#爬取指定urldef askUrl(url): head = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3776.400 QQBrowser/10.6.4212.400"} request = urllib.request.Request(url = url,headers=head) http = "" try: response = urllib.request.urlopen(request) http = response.read().decode("utf-8") except urllib.error.URLError as e: if hasattr(e,"code"): print(e.code) if hasattr(e,"reson"): print(e.reson) return http# 3.保存数据def saveData(dataList,savePath): woke = xlwt.Workbook("utf-8",style_compression=0)#样式的压缩效果 sheet = woke.add_sheet("豆瓣电影Top250",cell_overwrite_ok=True)#覆盖原单元格信息 col = ("链接","中文名字","英文名字","评分","标题","评分人数","概况") for i in range (7): sheet.write(0,i,col[i]) for i in range (0,250): for j in range (7): sheet.write(i+1,j,dataList[i][j]) print("第%d条数据"%(i+1)) woke.save(savePath) print("保存完毕")#3.保存到数据库def savedb(dataList,dataPath): initdb(dataPath) conn = sqlite3.connect(dataPath) cur = conn.cursor() #开始保存数据 for data in dataList: for index in range(len(data)): data[index] = str('"'+data[index]+'"') newstr = ",".join(data) sql ="insert into movie(info_link,cname,fname,rating,inq,racount,inf)values(%s)"%(newstr) print(sql) cur.execute(sql) conn.commit() cur.close() conn.close() print("保存完毕")#3-1新建表def initdb(dataPath): conn = sqlite3.connect(dataPath) cur = conn.cursor() sql = ''' create table movie( id Integer primary key autoincrement, info_link text, cname varchar , fname varchar , rating varchar , inq text, racount varchar , inf text ) ''' cur.execute(sql) conn.commit() cur.close() conn.close()if __name__ == "__main__": #调用函数    main()

愉快爬虫:

遵守 Robots 协议,但有没有 Robots 都不代表可以随便爬,可见下面的大众点评百度案;
限制你的爬虫行为,禁止近乎 DDOS的请求频率,一旦造成服务器瘫痪,约等于网络攻击;
对于明显反爬,或者正常情况不能到达的页面不能强行突破,否则是 Hacker行为;
最后,审视清楚自己爬的内容,以下是绝不能碰的红线(包括但不限于):

https://www.zhihu.com/question/291554395/answer/514982754


PS:如果觉得我的分享不错,欢迎大家随手点赞、在看。

END

python request url 转义_Python爬虫入门笔记相关推荐

  1. python request url 转义_Python多线程抓取Google搜索链接网页

    1)urllib2+BeautifulSoup抓取Goolge搜索链接 近期,参与的项目需要对Google搜索结果进行处理,之前学习了Python处理网页相关的工具.实际应用中,使用了urllib2和 ...

  2. python request url编码_Python爬虫进阶——Request对象之Get请求与URL编码【英雄联盟吧】...

    在上一篇中,我们是通过urllib.request.urlopen直接访问的网页地址,但在实际应用中,我们更多地使用urllib.request.Request对象,因为其可以封装headers和da ...

  3. python request url编码_Python 爬虫 (requests) 发送中文编码的 HTTP POST 请求

    向往常一样发送POST请求出现错误 网站信息 表单页面 结果 网页使用 gb2312 编码 使用 requests 发送 post 请求 In [2]: import requests In [3]: ...

  4. python编程理论篇_Python爬虫入门实战之猫眼电影数据抓取(理论篇)

    前言 本文可能篇幅较长,但是绝对干货满满,提供了大量的学习资源和途径.达到让读者独立自主的编写基础网络爬虫的目标,这也是本文的主旨,输出有价值能够真正帮助到读者的知识,即授人以鱼不如授人以渔,让我们直 ...

  5. python spider怎么用_python爬虫入门(七)Scrapy框架之Spider类

    Spider类 Spider类定义了如何爬取某个(或某些)网站.包括了爬取的动作(例如:是否跟进链接)以及如何从网页的内容中提取结构化数据(爬取item). 换句话说,Spider就是您定义爬取的动作 ...

  6. python request headers获取_Python爬虫实战—— Request对象之header伪装策略

    在header当中,我们经常会添加两个参数--cookie 和 User-Agent,来模拟浏览器登录,以此提高绕过后台服务器反爬策略的可能性. User-Agent获取 User-Agent可通过随 ...

  7. python如何解析网页_Python爬虫入门第一课:如何解析网页

    前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 以下文章来源于肥宅与画家 ,作者AntzUhl 我们编写网络爬虫最主要的目 ...

  8. python网页抓包_python爬虫入门01:教你在 Chrome 浏览器轻松抓包

    通过 我们知道了什么是爬虫 也知道了爬虫的具体流程 那么在我们要对某个网站进行爬取的时候 要对其数据进行分析 就要知道应该怎么请求 就要知道获取的数据是什么样的 所以我们要学会怎么抓咪咪! 哦,不对. ...

  9. python爬取方式_Python 爬虫入门(三)—— 寻找合适的爬取策略

    写爬虫之前,首先要明确爬取的数据.然后,思考从哪些地方可以获取这些数据.下面以一个实际案例来说明,怎么寻找一个好的爬虫策略.(代码仅供学习交流,切勿用作商业或其他有害行为) 1).方式一:直接爬取网站 ...

最新文章

  1. linux C++打包程序总结
  2. 愿...统一沟通...易行天下!
  3. python-迭代器
  4. 对其他组所提建议的回复(第一阶段)
  5. 数字图像的大小、所需比特数(二维)
  6. jsp主板 jtp_最新主板常见故障及解决(新)
  7. 无法初始化Winsock2.2处理
  8. 分享一病毒源代码,破坏MBR,危险!!仅供学习参考,勿运行(vc++2010已编译通过)
  9. mencoder_有用的Mplayer / Mencoder命令
  10. 配置静态路由使用下一跳IP地址和使用出接口的区别
  11. Java程序设计基础学习
  12. EXCEL 根据超链接直接显示图片
  13. 浮窗---创建系统浮窗(可拖动)
  14. 电子元器件行业B2B交易系统:规范企业交易流程,提升销售管理效率
  15. 学渣的刷题之旅 leetcode刷题 53.最大子序和(动态规划,贪心法)
  16. 【Unity编程】四元数(Quaternion)与欧拉角
  17. 车辆工程(1)——线性二自由度汽车模型的运动方程
  18. 自媒体平台大鱼号怎样开通视频原创保护,原创证明材料如何写?
  19. java设计模式知识总结(23种)
  20. 百度API的基本介绍和使用场景

热门文章

  1. Hive Shell
  2. QUIC技术创新 让视频和图片分发再提速
  3. 自己动手从0开始实现一个分布式RPC框架
  4. PyFlink + 区块链?揭秘行业领头企业 BTC.com 如何实现实时计算
  5. 前端如何快速上手 Web 3D 游戏的开发
  6. 金融业务数字化,用户体验和安全防护双重挑战,你该怎么办?
  7. 深度学习在商户挂牌语义理解的实践
  8. 如何低成本实现Flutter富文本,看这一篇就够了!
  9. [Phoenix] 十、全局索引设计实践
  10. 写时复制就这么几行代码,还是不会?