配置MySql

关于MySQL在Ubuntu的Pycharm上的配置,可以参考这篇文章中的第三部分

如果上面的步骤处理完毕后找不到你新建的数据库, 可以参照下图配置

勾选要显示的Schemas(数据库集合)

数据存储需要用到pymysql模块, 在File->Settings中找到如图的设置页面,点击加号搜索pymysql并安装

如何存储

在开始考虑如何存储之前, 我们需要考虑一个问题, 数据存储应该是什么时候要做的事.

假设你已经了解过Scrapy框架, 下面是来自官网对item pipeline的典型应用

清理数据

验证爬取的数据(检查item包含某些字段)

查重(并丢弃)

将爬取结果保存到数据库中

我们要实现的数据存储, 先来试一试能否成功吧

# 你可以参考以下代码编写自己的pipeline

import pymysql

class jobCrawlerPipeline(object):

def process_item(self, item, spider):

'''

将爬取的信息保存到mysql

:param item:

:param spider:

:return: item

'''

# Get data from item

job_name = item['job_name']

company = item['company']

address = item['address']

salary = item['salary']

time = item['time']

# Connecting with local database, change the value if not the same

db = pymysql.connect(

host='localhost',

user='root',

passwd='1320',

db='scrapyDB',

charset='utf8',

cursorclass=pymysql.cursors.DictCursor)

try:

# open the cursor

cursor = db.cursor()

sql = 'INSERT INTO tb_job(job_name,company,address,salary,time)' \

'VALUES ("%s", "%s", "%s", "%s", "%s")' % (job_name,company,address,salary,time)

# execute the sql

cursor.execute(sql)

db.commit()

finally:

# close the connection

db.close()

return item

爬虫尚未结束, 但是通过终端, 我们知道该停下爬虫了.

爬取中...

存储在MySQL的信息

重新回到爬虫项目的思路

思考整个爬虫项目的流程, 应该是这样

抓取信息->清理信息->整理信息->存储信息->分析信息

数据整理

而上面的存储信息虽然已经成功了一部分,但是薪资信息仍需要整理,更重要的是爬取的信息中没有明确的id, 如何在后续中加入topSalary, bottomSalary 等整理后才有的信息与之对应呢?

重新审视Item Pipeline的典型应用, 我们能不能在Pipeline上实现整理,清理, 验证或是丢弃呢?

分析item中的项目, 整理和验证可能是最容易实现的部分

我们先把整理功能实现并验证是否成功, 在class jobCrawlerPipeline(object):中添加下面这个方法.用于把爬取下来的工资数据进行整理,关于这个方法的实现,请参考前一篇爬虫练习之数据整理——基于Pandas

class jobCrawlerPipeline(object):

def cut_word(self, word, method):

if method == 'bottom':

length = len(word)

if (word.find('万') == -1):

if (word.find('以下') != -1):

# XX千以下

postion = word.find('以下')

bottomSalary = str(word[:(postion - 5)])

elif (word.find('以上') != -1):

postion = word.find('以上')

bottomSalary = str(float(word[:postion - 5]))

else:

# XX千/月

postion = word.find('-')

bottomSalary = str(float(word[:(postion)]))

else:

if (word.find('年') == -1):

if (word.find('以下') != -1):

# XX万以下

postion = word.find('以下')

bottomSalary = str(float(word[:(postion - 5)]) * 10)

elif (word.find('以上') != -1):

# XX万以上

postion = word.find('以上')

bottomSalary = str(float(word[:postion - 5]) * 10)

elif (word.find('+') != -1):

# XX万+

postion = word.find('+')

bottomSalary = str(float(word[:(postion)]) * 10)

else:

# XX万/月

postion = word.find('-')

bottomSalary = str(float(word[:(postion)]) * 10)

else:

if (word.find('以下') != -1):

# XX万以下/年

postion = word.find('以下')

bottomSalary = str(float(word[:(postion - 5)]) / 1.2)

elif (word.find('以上') != -1):

postion = word.find('以上')

bottomSalary = str(float(word[:postion - 5]) / 1.2)

elif (word.find('+') != -1):

# XX万+

postion = word.find('+')

bottomSalary = str(float(word[:(postion)]) / 1.2)

else:

# XX万/年

postion = word.find('-')

bottomSalary = word[:(postion)]

bottomSalary = str(float(bottomSalary) / 1.2)

return bottomSalary

if method == 'top':

length = len(word)

if (word.find('万') == -1):

if (word.find('以下') != -1):

# XX千以下

postion = word.find('以下')

topSalary = str(float(word[:(postion - 5)]))

elif (word.find('以上') != -1):

postion = word.find('以上')

topSalary = str(float(word[:postion - 5]))

else:

# XX千/月

postion = word.find('-')

topSalary = str(float(word[(postion + 1):(length - 11)]))

else:

if (word.find('年') == -1):

if (word.find('以下') != -1):

# XX万以下

postion = word.find('以下')

topSalary = str(float(word[:(postion - 5)]) * 10)

elif (word.find('以上') != -1):

# XX万以上

postion = word.find('以上')

topSalary = str(float(word[:postion - 5]) * 10)

else:

# XX万/月

postion = word.find('-')

topSalary = str(float(word[(postion + 1):(length - 11)]) * 10)

else:

if (word.find('以下') != -1):

# XX万以下/年

postion = word.find('以下')

topSalary = str(float(word[:(postion - 5)]) / 1.2)

elif (word.find('以上') != -1):

# XX万以上一年

postion = word.find('以上')

topSalary = str(float(word[:postion - 5]) / 1.2)

elif (word.find('+') != -1):

# XX万+

postion = word.find('+')

topSalary = str(float(word[:(postion)]) / 1.2)

else:

# XX万/年

postion = word.find('-')

topSalary = word[(postion + 1):(length - 11)]

topSalary = str(int(topSalary) / 1.2)

return topSalary

如果你看了上面的代码, 你可能发现与前一篇有些许不同, 最主要的差别就是字符串数组切片的位置发生了改变.

为什么要改呢?

因为这是Python的编码坑啊

通过观察终端的输出,可以看到爬下来尚未存储的数据是以unicode的形式存在,这个时候是5个字节一个中文

因此看到下面截图中的salary,可以判断要得到薪资的底薪和顶薪,需要剔除掉11个字节

爬取数据中

数据清洗

至此,数据的基本处理已经合并到Pipeline中,鉴于可能还有脏数据在item中,我们在Pipeline的process_item方法中加入相应的代码

这段代码应当加在处理数据之前,减少一些系统开销

# Get data from item

job_name = item['job_name']

salary = item['salary']

dirty_job_name = re.compile(r'(\*|在家|试用|体验|无需|无须|试玩|红包)+')

dirty_salary = re.compile(r'(小时|天)+')

# clean dirty data

if(dirty_job_name.search(str(job_name))):

raise DropItem("Dirty data %s" % item)

if(dirty_salary.search(str(salary))):

raise DropItem("Dirty data %s" % item)

if(salary == None):

raise DropItem("Dirty data %s" % item)

数据存储

把清洗并整理完毕的数据进行数据存储

建立数据库的相关MySql语句是

CREATE DATABASE IF NOT EXISTS scrapyDB DEFAULT CHARACTER SET utf8;

CREATE TABLE IF NOT EXISTS `tb_job`(

`job_id` bigint NOT NULL AUTO_INCREMENT,

`job_name` varchar(50) NOT NULL,

`company` varchar(50) NOT NULL,

`address` varchar(50) NOT NULL,

`bottom_salary` varchar(10) NOT NULL,

`top_salary` varchar(10) NOT NULL,

`salary` varchar(15) NOT NULL,

`time` varchar(10) NOT NULL,

PRIMARY KEY (`job_id`),

UNIQUE KEY `unique_info`(`job_name`, `company`, `address`)

);

这里实现的思路不止一种

Solution 1 在process_item中直接将处理完的item保存到数据库中

实际测试的时候发现保存下来的数据除了job_name字段外, 其他中文字段全部变成Unicode码, 原因不明. 大家如果成功用这种方法实现了, 不妨在留言区告知一下, 毕竟第二种方法多了文件IO的开销, 耗时会比较大

Solution 2 在爬取结束之后再进行数据库写入操作

爬取结束后, 用pandas模块的csv读取函数打开爬取完毕的csv文件, 写入数据库

Attention!

以上两种方法的commit()建议在全部插入后一次commit完成

必须在close_spider方法中关闭数据库

若使用第一种方法, 建议在open_spider中实现数据库初始化工作, 而不是每执行一次process_item进行一次打开关闭数据库

写入数据库

参考代码

# Function1

def open_spider(self, spider):

self.conn = pymysql.connect(

host='localhost',

user='root',

passwd='mysql',

db='scrapyDB',

charset='utf8',

cursorclass=pymysql.cursors.DictCursor)

def close_spider(self, spider):

try:

# open the cursor

self.cursor = self.conn.cursor()

# get data from csv file

# reload data

f = open(r'job.csv', 'r')

f.close()

job_info = pandas.read_csv(r'job.csv', iterator=True,chunksize=1,

header=None,names=

['job_name','company','address','bottom_salary','top_salary','salary','time'])

# store data

for i, job in enumerate (job_info):

# use -1 or ' ' to fill NAN

job = job.fillna({'job_name':'','company':'','address':'','time':''})

job = job.fillna(-1)

# transform series to list type

job = job.values[0]

sql = 'INSERT INTO tb_job(job_name,company,address,bottom_salary,top_salary,salary,time)' \

'VALUES ("%s", "%s", "%s", "%s", "%s", "%s", "%s")' % (

job[6], job[2], job[3], job[1], job[5], job[0], job[6])

self.cursor.execute(sql)

self.conn.commit()

finally:

# close the connection

self.conn.close()

# Function2

# 未将打开关闭数据库拆分出来, 请自行修改

db = pymysql.connect(

host='localhost',

user='root',

passwd='mysql',

db='scrapyDB',

charset='utf8',

cursorclass=pymysql.cursors.DictCursor)

try:

# open the cursor

cursor = db.cursor()

sql = 'INSERT INTO tb_job(job_name,company,address,bottom_salary,top_salary,salary,time)' \

'VALUES ("%s", "%s", "%s", "%s", "%s", "%s", "%s")' % (job_name,item['company'],item['address'],item['bottomSalary'],item['topSalary'],item['salary'],item['time'])

# execute the sql

cursor.execute(sql)

db.commit()

finally:

# close the connection

db.close()

最终的数据库代码中, 暂时删除了unique_info索引, 原因是当前只需要尚不需要进行增量爬取. 使用unique_info索引后, 如果遇到重复的数据将直接RollBack, 而我们是在最后才一次性commit的, 这样肯定不行

就需要增加开销去每插入一条数据提交一次

后续将对这个问题进行处理, 敬请期待

爬虫mysql数据清洗_爬虫分析之数据存储——基于MySQL,Scrapy相关推荐

  1. 猫眼电影票房爬取到MySQL中_猫眼电影爬取(一):requests+正则,并将数据存储到mysql数据库...

    前面讲了如何通过pymysql操作数据库,这次写一个爬虫来提取信息,并将数据存储到mysql数据库 1.爬取目标 爬取猫眼电影TOP100榜单 要提取的信息包括:电影排名.电影名称.上映时间.分数 2 ...

  2. 《Python网络爬虫——从入门到实践》第六章将数据存储至MySQL数据库的学习心得与总结(出错与纠正方法)

    <Python网络爬虫--从入门到实践>第六章将数据存储至MySQL数据库的学习心得与总结(出错与纠正方法) 作为刚开始入门python的小白,对大数据,网络爬虫比较感兴趣.完全是自我修炼 ...

  3. mysql数据存储方式_数据存储在mysql的两种方式

    数据存储在mysql的两种方式 发布时间:2020-05-12 16:16:25 来源:亿速云 阅读:250 作者:三月 下文主要给大家带来数据存储在mysql的两种方式,希望这些内容能够带给大家实际 ...

  4. 小猪的Python学习之旅 —— 20.抓取Gank.io所有数据存储到MySQL中

    小猪的Python学习之旅 -- 20.抓取Gank.io所有数据存储到MySQL中 标签:Python 一句话概括本文: 内容较多,建议先mark后看,讲解了一波MySQL安装,基本操作,语法速成, ...

  5. 用户画像 | 标签数据存储之MySQL真实应用

    本文已收录github:https://github.com/BigDataScholar/TheKingOfBigData,里面有大数据高频考点,Java一线大厂面试题资源,上百本免费电子书籍,作者 ...

  6. 用户画像标签数据存储之MySQL存储

    目录 0. 相关文章链接 1. 元数据管理 2. 监控预警数据 2.1. 标签计算数据监控 2.2. 服务层同步数据监控 2.3. 结果集存储 注:此博文为根据 赵宏田 老师的 用户画像·方法论与工程 ...

  7. 用sqoop把hdfs数据存储到mysql报错,Job job_1566707990804_0002 failed with state FAILED due to: Tas k failed

    用sqoop把hdfs数据存储到mysql数据库,报错 Job job_1566707990804_0002 failed with state FAILED due to: Tas k failed ...

  8. 服务端指南 数据存储篇 | MySQL(03) 如何设计索引

    改善性能最好的方式,就是通过数据库中合理地使用索引,换句话说,索引是提高 MySQL 数据库查询性能的主要手段.在下面的章节中,介绍了索引类型.强制索引.全文索引. 原文地址:服务端指南 数据存储篇 ...

  9. python爬虫动态数据获取_爬虫系列(9)爬虫的多线程理论以及动态数据的获取方法。...

    NO·1 爬虫之多线程 1. 引入我们之前写的爬虫都是单个线程的?这怎么够?一旦一个地方卡到不动了,那不就永远等待下去了?为此我们可以使用多线程或者多进程来处理. 不建议你用这个,不过还是介绍下了,如 ...

最新文章

  1. 谷歌迈出量子计算开源第一步,推出首个量子机器学习库TensorFlow Quantum
  2. delphi:多态置换原则
  3. python m http_非常简单的Python HTTP服务
  4. 如何判断设备是上电复位还是软复位(主动调用复位接口或者看门狗复位,W600)
  5. 打印文件前,千万记得把弹窗叉掉!!!
  6. python表达式3 5_python3 第五章 - 什么是变量、运算符、表达式
  7. linux 内核模块 proc,Linux 内核模块 proc文件系统.pdf
  8. 男性玩家占78.8%、90后玩家占近50%、最多人选择中国风链游……《2019链游玩家需求调研报告》重磅发布!...
  9. 模拟信号的数字处理方法
  10. python用turtle画一个苹果
  11. BugkuCTF:宽带泄露;隐写2
  12. 2022年4月13日记
  13. 【Java】一文秒懂http请求获取FlexManager平台FBox盒子信息
  14. oracle client 安装及卸载
  15. ty博客后台搭建教程
  16. 高德地图开发-常用api踩坑使用
  17. java编译字节码转化程序下载_编译Java Application源程序文件将产生相应的字节码文件,这些字节码文件的扩展名为( )...
  18. 奇虎归来:周鸿祎讲的新故事能否弯道超车
  19. gmap 支持python吗_基于GMap.Net的地图解决方案
  20. 影视明星杨幂写真合集:时尚优雅、气质迷人!

热门文章

  1. 【集合论】偏序关系 ( 偏序关系定义 | 偏序集定义 | 大于等于关系 | 小于等于关系 | 整除关系 | 包含关系 | 加细关系 )
  2. java 僵尸进程_神奇的Java'僵尸'进程问题
  3. oracle omf管理,使用OMF管理表空间
  4. 点击edittext 区域外隐藏输入法和点击edittext 显示输入法
  5. Java不区分大小写模糊查询方法_查询语句中不区分大小写和区分大小写及其模糊查询 的语句...
  6. html如何删除目录,无法删除文件夹 目录不是空的
  7. Mac下安装DBeaver
  8. Uml 类图 stereotype的值含义,该怎么解决
  9. word文档从第二页开始标注页码
  10. 中晋最新消息2020年_油价调整最新消息:今天油价再次创出2020年新低