python保存数据到本地_Python爬虫入门 | 6 将爬回来的数据存到本地
1.用Python语句存储数据
写文件时,我们主要用到 with open() 语句:
with open(name,mode,encoding) as file: file.write() # 注意,with open() 后面的语句有一个缩进
name:包含文件名称的字符串,比如:‘xiaozhu.txt’; mode:决定了打开文件的模式,只读/写入/追加等; encoding:表示我们要写入数据的编码,一般为 utf-8 或者 gbk ; file:表示我们在代码中对文件的命名。
用我们前面爬的小猪的例子来看一下,实际是什么样的:
from lxml import etreeimport requestsimport timewith open('/Users/mac/Desktop/xzzf.txt','w',encoding='utf-8') as f: for a in range(1,6): url = 'http://cd.xiaozhu.com/search-duanzufang-p{}-0/'.format(a) data = requests.get(url).text s=etree.HTML(data) file=s.xpath('//*[@id="page_list"]/ul/li') time.sleep(3) for div in file: title=div.xpath("./div[2]/div/a/span/text()")[0] price=div.xpath("./div[2]/span[1]/i/text()")[0] scrible=div.xpath("./div[2]/div/em/text()")[0].strip() pic=div.xpath("./a/img/@lazy_src")[0] f.write("{},{},{},{}\n".format(title,price,scrible,pic))
将写入的文件名 xzzf.txt,如果没有将自动创建。
/Users/mac/Desktop/xzzf.txt
在前面加了一个桌面的路径,它将存在桌面,如果不加路径,它将存在你当前工作目录中。
w:只写的模式,如果没有文件将自动创建;
encoding='utf-8':指定写入文件的编码为:utf-8,一般指定utf-8即可;
f.write("{} {} {} {}\n".format(title,price,scrible,pic))#将 title,price,scrible,pic 的值写入文件
来看一下存下来的数据是怎样的:
如果你没有指定文件路径,怎么找写在本地的文件呢?给你两种方法:
1.在 win10 中打开小娜(cortana),搜索你的文件名即可
2.推荐软件“everything”,查询文件更方便快捷。
这个软件非常小,百度很容易找到,但确实是神器用了你会回来感谢我的~
所以还是建议你在写代码的时候,老老实实在文件名前面加上你想存放的路径。什么,你连路径怎么写都不知道?好吧,比如我想把文件存在桌面,那么怎么查看路径?
随便找一个文档,比如桌面的文档, 右键 >“属性”,“位置”后面的信息,就是该文档所在的路径了。
2.文件存为CSV格式
当然,你也可以将文件存为 .csv 格式,在 with open() 语句后更改文件后缀即可。
from lxml import etreeimport requestsimport timewith open('/Users/mac/Desktop/xiaozhu.csv','w',encoding='utf-8') as f: for a in range(1,6): url = 'http://cd.xiaozhu.com/search-duanzufang-p{}-0/'.format(a) data = requests.get(url).text s=etree.HTML(data) file=s.xpath('//*[@id="page_list"]/ul/li') time.sleep(3) for div in file: title=div.xpath("./div[2]/div/a/span/text()")[0] price=div.xpath("./div[2]/span[1]/i/text()")[0] scrible=div.xpath("./div[2]/div/em/text()")[0].strip() pic=div.xpath("./a/img/@lazy_src")[0] f.write("{},{},{},{}\n".format(title,price,scrible,pic))
另外,需要注意的是:CSV 每个字段之间要用逗号隔开,所以这里把之前的空格改为了逗号。
CSV 文件怎么打开?
一般情况下,用记事本就可以直接打开,如果你直接用 Excel 打开,很有肯能会出现乱码,就像下面这样:
Excel 打开 CSV 出现乱码怎么办?
在记事本中打开文件
另存为 – 选择编码为“ANSI”
再来看看之前的豆瓣TOP250图书写入文件:
from lxml import etreeimport requestsimport timewith open('/Users/mac/Desktop/top250.csv','w',encoding='utf-8') as f: for a in range(10): url = 'https://book.douban.com/top250?start={}'.format(a*25) data = requests.get(url).text s=etree.HTML(data) file=s.xpath('//*[@id="content"]/div/div[1]/div/table') time.sleep(3) for div in file: title = div.xpath("./tr/td[2]/div[1]/a/@title")[0] href = div.xpath("./tr/td[2]/div[1]/a/@href")[0] score=div.xpath("./tr/td[2]/div[2]/span[2]/text()")[0] num=div.xpath("./tr/td[2]/div[2]/span[3]/text()")[0].strip("(").strip().strip(")").strip() scrible=div.xpath("./tr/td[2]/p[2]/span/text()") if len(scrible) > 0: f.write("{},{},{},{},{}\n".format(title,href,score,num,scrible[0])) else: f.write("{},{},{},{}\n".format(title,href,score,num))
最后存下来的数据是这样的:
好了,这节课就到这里!
python保存数据到本地_Python爬虫入门 | 6 将爬回来的数据存到本地相关推荐
- python爬虫和数据可视化论文_Python爬虫之小说信息爬取与数据可视化分析
一.小说数据的获取 获取的数据为起点中文网的小说推荐周榜的所有小说信息. 源代码对所有想要获取的数据都有注释. http://dxb.myzx.cn/grandmal/ # -*- coding: u ...
- python爬去百度百科词条_Python爬虫入门学习实践——爬取小说
本学期开始接触python,python是一种面向对象的.解释型的.通用的.开源的脚本编程语言,我觉得python最大的优点就是简单易用,学习起来比较上手,对代码格式的要求没有那么严格,这种风格使得我 ...
- python爬取网页数据软件_python爬虫入门10分钟爬取一个网站
一.基础入门 1.1什么是爬虫 爬虫(spider,又网络爬虫),是指向网站/网络发起请求,获取资源后分析并提取有用数据的程序. 从技术层面来说就是 通过程序模拟浏览器请求站点的行为,把站点返回的HT ...
- python爬数据以字典变量保存_python爬虫第7篇——爬取的数据如何存档
不能让你暴富,但至少可以奔小康了! 想了解更多精彩内容,快来关注南大盛联 阅读本文,假定你使用的是Windows操作系统下面的python3.X版本. 并且已经掌握了一些基本的python操作.否则, ...
- python自动抓包手机_Python爬虫入门:教你通过Fiddler进行手机抓包!
哟哟哟~ hi起来 everybody Python爬虫入门:教你通过Fiddler进行手机抓包! 今天要说说怎么在我们的手机抓包 进群:700341555获取Python爬虫入门学习资料! Pyth ...
- python win32ui选取文件夹_Python爬虫基础之认识html和学习数据提取(上)
我:我已经学会了基本的python,接下来可以学什么鸭? 惨绿青年:接下来可以学习制作python爬虫了,但还是需要学习相关的知识. 我:什么知识鸭? 惨绿青年:网页的相关知识.我们看到的网页一般是h ...
- python爬虫之app数据抓取_Python爬虫入门教程 29-100 手机APP数据抓取 pyspider
1. 手机APP数据----写在前面 继续练习pyspider的使用,最近搜索了一些这个框架的一些使用技巧,发现文档竟然挺难理解的,不过使用起来暂时没有障碍,估摸着,要在写个5篇左右关于这个框架的教程 ...
- python数据抓取课程_Python爬虫入门教程 22-100 CSDN学院课程数据抓取
1. CSDN学院课程数据-写在前面 今天又要抓取一个网站了,选择恐惧症使得我不知道该拿谁下手,找来找去,算了,还是抓取CSDN学院吧,CSDN学院的网站为 https://edu.csdn.net/ ...
- python壁纸数据抓取_python爬虫多线程实战:爬取美桌1080p壁纸图片
本人纯手工码字哦,请耐心看完,有信心可以带你完整学会这个实战案例 一.需求分析: 1.下载 http://www.win4000.com/wallpaper.html 下指定分类 指定尺寸 的图片 2 ...
最新文章
- MPB:深大李猛组-基于PacBio SMRT三代测序的红树林沉积物真菌群落的研究
- 微信拦截URL,使用自己内置的web组件打开URL,为什么没人声讨?
- 操作系统第一篇【引论】
- php开发者与composer的不得不说故事
- R中根据匹配原则将一列拆分为几列的方法
- ios6.0,程序为横屏,出现闪退
- 使用Python往Elasticsearch插入数据
- Java-重定向输出流实现程序日志
- Python+SQLite开发无界面版通信录管理系统
- python入门教程收藏_python入门教程:超详细保你2小时学会Python,快来收藏看看...
- android自定义View之自定义可置顶ScrollView,View滑动原理简析
- 打开IE8总是提示欢迎使用?怎样使它不提示?
- 5.2.1_3 普通心理学(彭冉玲第四版) - 第2章 心理的神经生理机制
- 「 LaTeX 」写论文,单双栏显示行号
- global(全局变量)
- Druid监控页面配置用户密码、去除Ad
- 如何使用抽象类和抽象方法
- DTU连接自建MQTT服务器
- 精通Web Analytics 2.0 (4) 第二章:选择你的网络分析灵魂伴侣的最佳策略
- jQuery翻牌子抽奖效果(已知结果)