Python3爬虫数据入数据库---把爬取到的数据存到数据库,带数据库去重功能
这是python3实战入门系列的第三篇文章,要学习这一篇需要了解前两篇,要不学起来比较费劲
- python3实战入门python爬虫篇001---网页爬虫,图片爬虫,文章爬虫,Python爬虫爬取新闻网站新闻
- python3操作数据库002 借助pycharm快速连接并操作mysql数据库
下面来正式开始把我们第一节爬取到的新闻数据保存到mysql数据中
一,首先我们需要连接数据库
通过定义一个MySQLCommand类来配置数据库连接参数,并定义一个connectMysql方法连接数据库
# -*- coding: utf-8 -*-
# 作者微信:2501902696
import pymysql
# 用来操作数据库的类
class MySQLCommand(object):# 类的初始化def __init__(self):self.host = 'localhost'self.port = 3306 # 端口号self.user = 'root' # 用户名self.password = "" # 密码self.db = "home" # 库self.table = "home_list" # 表# 链接数据库def connectMysql(self):try:self.conn = pymysql.connect(host=self.host, port=self.port, user=self.user,passwd=self.password, db=self.db, charset='utf8')self.cursor = self.conn.cursor()except:print('connect mysql error.')
复制代码
二,连接完数据库后我们需要插入数据了
插入数据之前我们有两个问题
- 1,重复的数据如何去重
- 2,新数据的主键id应该从哪里开始 针对上面的两个问题我贴出一部分代码来看解决思路
# 插入数据,插入之前先查询是否存在,如果存在就不再插入def insertData(self, my_dict):table = "home_list" # 要操作的表格# 注意,这里查询的sql语句url=' %s '中%s的前后要有空格sqlExit = "SELECT url FROM home_list WHERE url = ' %s '" % (my_dict['url'])res = self.cursor.execute(sqlExit)if res: # res为查询到的数据条数如果大于0就代表数据已经存在print("数据已存在", res)return 0# 数据不存在才执行下面的插入操作try:cols = ', '.join(my_dict.keys())#用,分割values = '"," '.join(my_dict.values())sql = "INSERT INTO home_list (%s) VALUES (%s)" % (cols, '"' + values + '"')#拼装后的sql如下# INSERT INTO home_list (img_path, url, id, title) VALUES ("https://img.huxiucdn.com.jpg"," https://www.huxiu.com90.html"," 12"," ")try:result = self.cursor.execute(sql)insert_id = self.conn.insert_id() # 插入成功后返回的idself.conn.commit()# 判断是否执行成功if result:print("插入成功", insert_id)return insert_id + 1except pymysql.Error as e:# 发生错误时回滚self.conn.rollback()# 主键唯一,无法插入if "key 'PRIMARY'" in e.args[1]:print("数据已存在,未插入数据")else:print("插入数据失败,原因 %d: %s" % (e.args[0], e.args[1]))except pymysql.Error as e:print("数据库错误,原因%d: %s" % (e.args[0], e.args[1]))
复制代码
通过上面代码我们来看如何去重
- 我们在每次插入之前需要查询下数据是否已经存在,如果存在就不在插入,我们的home_list表格的字段有 id,title,url,img_path。通过分析我们抓取到的数据titlehe和img_path字段都可能为空,所以这里我们通过url字段来去重。知道去重原理以后再去读上面的代码,你应该能容易理解了
三,查询数据库中最后一条数据的id值,来确定我们新数据id的开始值
通过下面的getLastId函数来获取home_list表里的最后一条数据的id值
# 查询最后一条数据的id值def getLastId(self):sql = "SELECT max(id) FROM " + self.tabletry:self.cursor.execute(sql)row = self.cursor.fetchone() # 获取查询到的第一条数据if row[0]:return row[0] # 返回最后一条数据的idelse:return 0 # 如果表格为空就返回0except:print(sql + ' execute failed.')
复制代码
下面贴出MySQLCommand数据库操作类的完整代码
# -*- coding: utf-8 -*-
# 作者微信:2501902696
import pymysql
# 用来操作数据库的类
class MySQLCommand(object):# 类的初始化def __init__(self):self.host = 'localhost'self.port = 3306 # 端口号self.user = 'root' # 用户名self.password = "" # 密码self.db = "home" # 库self.table = "home_list" # 表# 链接数据库def connectMysql(self):try:self.conn = pymysql.connect(host=self.host, port=self.port, user=self.user,passwd=self.password, db=self.db, charset='utf8')self.cursor = self.conn.cursor()except:print('connect mysql error.')# 插入数据,插入之前先查询是否存在,如果存在就不再插入def insertData(self, my_dict):table = "home_list" # 要操作的表格# 注意,这里查询的sql语句url=' %s '中%s的前后要有空格sqlExit = "SELECT url FROM home_list WHERE url = ' %s '" % (my_dict['url'])res = self.cursor.execute(sqlExit)if res: # res为查询到的数据条数如果大于0就代表数据已经存在print("数据已存在", res)return 0# 数据不存在才执行下面的插入操作try:cols = ', '.join(my_dict.keys())#用,分割values = '"," '.join(my_dict.values())sql = "INSERT INTO home_list (%s) VALUES (%s)" % (cols, '"' + values + '"')#拼装后的sql如下# INSERT INTO home_list (img_path, url, id, title) VALUES ("https://img.huxiucdn.com.jpg"," https://www.huxiu.com90.html"," 12"," ")try:result = self.cursor.execute(sql)insert_id = self.conn.insert_id() # 插入成功后返回的idself.conn.commit()# 判断是否执行成功if result:print("插入成功", insert_id)return insert_id + 1except pymysql.Error as e:# 发生错误时回滚self.conn.rollback()# 主键唯一,无法插入if "key 'PRIMARY'" in e.args[1]:print("数据已存在,未插入数据")else:print("插入数据失败,原因 %d: %s" % (e.args[0], e.args[1]))except pymysql.Error as e:print("数据库错误,原因%d: %s" % (e.args[0], e.args[1]))# 查询最后一条数据的id值def getLastId(self):sql = "SELECT max(id) FROM " + self.tabletry:self.cursor.execute(sql)row = self.cursor.fetchone() # 获取查询到的第一条数据if row[0]:return row[0] # 返回最后一条数据的idelse:return 0 # 如果表格为空就返回0except:print(sql + ' execute failed.')def closeMysql(self):self.cursor.close()self.conn.close() # 创建数据库操作类的实例
复制代码
再贴出把爬虫爬取数据插入到数据库的代码
# -*- coding: utf-8 -*-
# 作者微信:2501902696
from bs4 import BeautifulSoup
from urllib import request
import chardetfrom db.MySQLCommand import MySQLCommandurl = "https://www.huxiu.com"
response = request.urlopen(url)
html = response.read()
charset = chardet.detect(html)
html = html.decode(str(charset["encoding"])) # 设置抓取到的html的编码方式# 使用剖析器为html.parser
soup = BeautifulSoup(html, 'html.parser')
# 获取到每一个class=hot-article-img的a节点
allList = soup.select('.hot-article-img')# 连接数据库
mysqlCommand = MySQLCommand()
mysqlCommand.connectMysql()
#这里每次查询数据库中最后一条数据的id,新加的数据每成功插入一条id+1
dataCount = int(mysqlCommand.getLastId()) + 1
for news in allList: # 遍历列表,获取有效信息aaa = news.select('a')# 只选择长度大于0的结果if len(aaa) > 0:# 文章链接try: # 如果抛出异常就代表为空href = url + aaa[0]['href']except Exception:href = ''# 文章图片urltry:imgUrl = aaa[0].select('img')[0]['src']except Exception:imgUrl = ""# 新闻标题try:title = aaa[0]['title']except Exception:title = ""#把爬取到的每条数据组合成一个字典用于数据库数据的插入news_dict = {"id": str(dataCount),"title": title,"url": href,"img_path": imgUrl}try:# 插入数据,如果已经存在就不在重复插入res = mysqlCommand.insertData(news_dict)if res:dataCount=resexcept Exception as e:print("插入数据失败", str(e))#输出插入失败的报错语句
mysqlCommand.closeMysql() # 最后一定要要把数据关闭
dataCount=0
复制代码
如果对上面代码不是很了解可以到我的第一节文章去看下 python3实战入门python爬虫篇---网页爬虫,图片爬虫,文章爬虫,Python爬虫爬取新闻网站新闻
到此我们的python3爬虫+python3数据库篇就完事了,看下操作效果图
gif图片质量不是很好,大家凑合着看吧☺☺☹☎
写于---Python零基础实战入门第四天
转载于:https://juejin.im/post/5bcd260b51882577d04c6904
Python3爬虫数据入数据库---把爬取到的数据存到数据库,带数据库去重功能相关推荐
- python3爬虫系列16之多线程爬取汽车之家批量下载图片
python3爬虫系列16之多线程爬取汽车之家批量下载图片 1.前言 上一篇呢,python3爬虫系列14之爬虫增速多线程,线程池,队列的用法(通俗易懂),主要介绍了线程,多线程,和两个线程池的使用. ...
- Python网络爬虫3 - 生产者消费者模型爬取某金融网站数据
博客首发于www.litreily.top 应一位金融圈的朋友所托,帮忙写个爬虫,帮他爬取中国期货行业协议网站中所有金融机构的从业人员信息.网站数据的获取本身比较简单,但是为了学习一些新的爬虫方法和技 ...
- 【爬虫作业】使用scrapy爬取游戏发售表,存入mongo数据库
需求分析 昨天,我发布了爬取游戏发售表的文章,有一个小伙伴看完了以后,非常的困扰,他问我说,"仙草哥哥,你这个爬虫程序虽然很好,基本的功能也实现了,但是我觉得它太简单了,总共才几十行,不像一 ...
- python爬取微博数据存入数据库_Python爬取新浪微博评论数据,写入csv文件中
因为新浪微博网页版爬虫比较困难,故采取用手机网页端爬取的方式 操作步骤如下: 1. 网页版登陆新浪微博 2.打开m.weibo.cn 3.查找自己感兴趣的话题,获取对应的数据接口链接 4.获取cook ...
- python爬虫表格table_Python基于pandas爬取网页表格数据
以网页表格为例:https://www.kuaidaili.com/free/ 该网站数据存在table标签,直接用requests,需要结合bs4解析正则/xpath/lxml等,没有几行代码是搞不 ...
- python3爬虫系列之使用requests爬取LOL英雄图片
我们最终目的就是要把抓取到的图片保存到本地,所以先写一个保存图片的方法(可以保存任何二进制文件).注意在windows下文件命名包含/ | ?可能会发生错误,有的英雄皮肤名称确实包含/,所以这里使用正 ...
- python爬取京东手机数据_用scrapy爬取京东的数据
本文目的是使用scrapy爬取京东上所有的手机数据,并将数据保存到MongoDB中. 一.项目介绍 主要目标 1.使用scrapy爬取京东上所有的手机数据 2.将爬取的数据存储到MongoDB 环境 ...
- python爬虫项目描述怎么写_爬虫项目咋写,爬取什么样的数据可以作为项目写在简历上?...
看样子,主要目的是上简历 如果你想要爬虫的offer,那么你的项目应该有这么几个特征: 能用常用的框架,必要时有能力修改框架甚至自己写一个 熟悉多线程多进程分布式等,对爬虫任务调度有很好的解决办法 采 ...
- 爬取图片到mysql数据库_爬取微博图片数据存到Mysql中遇到的各种坑\mysql存储图片\爬取微博图片...
前言 由于硬件等各种原因需要把大概170多万2t左右的微博图片数据存到Mysql中.之前存微博数据一直用的非关系型数据库mongodb,由于对Mysql的各种不熟悉,踩了无数坑,来来回回改了3天才完成 ...
最新文章
- 参加java培训真的能学到有用的吗
- 剑指offer:连续子数组的最大和
- Spring Boot中实现跨域的五种方式
- String与StringBuffer、StringBuilder之间的转换
- Qt学习笔记-简单的TCP程序
- iOS UIWebView 之 UIProgressView
- 为什么要使用面向对象编程
- 请画出一个抓虫系统的架构图并说明你的爬虫需要如何优化来提升性能
- opencv /c++学习
- 蓝牙锁定计算机,win7怎么设置蓝牙加密狗|win7蓝牙加密狗的使用方法
- 如何使用 Firebase 建立短網址?
- deepin 服务器_深度官方并没有提供Deepin服务器版下载,也没有开发计划
- 一 、单片机IO实验
- (三十六)Delta中性对冲与Delta-Gamma中性对冲
- 90后黑客基地黑客小坤简介
- 基于word2vec的疾病和手术相关词语的相似度计算
- java图像连通域降噪_连通域去噪
- leo_流动人口信息管理系统
- 人脸自收集数据集辅助制作工具——人脸姿态数据标注
- 2019年1月18日假期日记