本人长期出售超大量微博数据、旅游网站评论数据,并提供各种指定数据爬取服务,Message to YuboonaZhang@Yahoo.com。同时欢迎加入社交媒体数据交流群:99918768

前言

由于硬件等各种原因需要把大概170多万2t左右的微博图片数据存到Mysql中.之前存微博数据一直用的非关系型数据库mongodb,由于对Mysql的各种不熟悉,踩了无数坑,来来回回改了3天才完成。

挖坑填坑之旅

建表

存数据的时候首先需要设计数据库,我准备设计了3个表

微博表:[id, userid, blog_text, lat, lng, created_time, reserve]   pkey: id

图片表:[md5, pic_url, pic_bin, exif, reserve]   pkey: md5

关系表:[id, md5, reserve]   pkey: (id, md5)   fkey: (id, 微博表id)  (md5, 图片表md5)

建表的时候别的问题都还好,主要是 pic_bin 的类型和 blog_text 的类型有很大的问题,首先是pic_bin的类型,开始设置的为BLOB,但是运行之后发现BLOB最大只能存1M的数据,并不能满足微博图片的存储,后改成MEDIUMBLOB(16M)基本能够满足要求了。再后来就是blog_text,我遇到的第一个大坑

开始的时候很自然的设置blog_text的类型为TEXT,但跑起来发现有些数据存不进去,会报错,经筛查发现是有些微博文本中包含了emoji表情...随后找了很多资料发现是因为utf8下文字是三字节,但是emoji是四字节,需要将编码改成utf8mb4。然而我在mac上整mysql的配置文件报各种奇葩错误,一怒之下把TEXT改成了BLOB,就好了。因为本地是MAC,我要连接到远程的一台Windows上才能通过那个Windows连接到群晖的Mysql上...本地配置改了也白改。

存图片

然后这就是一个大坑!!! 由于我使用的python3,所以读取图片得到的二进制的结果前面会有一个b', 表示bytes,正是由于这个b'导致sql语句拼接的时候这个b后面的单引号会和sql语句的引号结合,导致后面的二进制没有在引号里面出错!二进制编码又不像string可以对字符转义,试了好多方法都不行!最后没有办法使用base64 对二进制进行加密转化成字符串,存到数据库中,然后要用时的时候再解密。

pic_bin = str(base64.b64encode(pic_bin))[2:-1]

改配置文件

由于使用Python多进程,一个小时8G数据量,图片数据比较大,发包的时候回超过mysql的默认限制,出现Mysql server has gone away, 这个时候要改配置文件,在配置文件中参数

max_allowed_packet = 600M

wait_timeout = 60000

Lost connection to Mysql server during query

程序跑着跑着总会出现这个错误,一直找原因,试了各种办法看了好多资料,一直都是错误。实在不知道什么原因了...后来一想,我管他什么原因,失去连接之后重新连接就行了。使用conn.Ping(True) 判断是否连接mysql成功。如果失去连接就重新连接就行了!最后解决了这个问题

代码实现

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# Created by Baoyi on 2017/10/16

from multiprocessing.pool import Pool

import pymysql

import requests

import json

import exifread

from io import BytesIO

import configparser

import hashlib

import logging

import base64

# 配置logging

logging.basicConfig(level=logging.WARNING,

format='%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s',

datefmt='%a, %d %b %Y %H:%M:%S',

filename='weibo.log',

filemode='w')

cf = configparser.ConfigParser()

cf.read("ConfigParser.conf")

# 读取配置mysql

db_host = cf.get("mysql", "db_host")

db_port = cf.getint("mysql", "db_port")

db_user = cf.get("mysql", "db_user")

db_pass = cf.get("mysql", "db_pass")

db = cf.get("mysql", "db")

# 创建连接

conn = pymysql.connect(host=db_host, user=db_user, passwd=db_pass, db=db, port=db_port, charset='utf8')

# 获取游标

cursor = conn.cursor()

# 创建insert_sql

insert_blog_sql = (

"INSERT IGNORE INTO blog(userid, id, blog_text, lat, lng, created_time) VALUES('{uid}', '{id}','{blog_text}','{lat}','{lng}','{created_time}')"

)

insert_pic_sql = (

"INSERT IGNORE INTO pics(pic_url, pic_bin, md5, exif) VALUES ('{pic_url}','{pic_bin}','{md5}','{exif}')"

)

insert_relationship_sql = (

"INSERT IGNORE INTO relationship(id, md5) VALUES ('{id}','{md5}')"

)

uid = []

with open('./data/final_id.txt', 'r') as f:

for i in f.readlines():

uid.append(i.strip('\r\n'))

# 处理图片数据

def handle_pic(pic_url):

large_pic_url = pic_url.replace('thumbnail', 'large')

large_bin = requests.get(large_pic_url)

return large_bin.content

def get_poiid_info(uid):

try:

url = 'https://api.weibo.com/2/statuses/user_timeline.json'

load = {

'access_token': 'xxxxxxxxxx',

'uid': uid,

'count': 100,

'feature': 2,

'trim_user': 1

}

get_info = requests.get(url=url, params=load, timeout=(10, 10))

if get_info.status_code != 200:

logging.warning(ConnectionError)

pass

info_json = json.loads(get_info.content)

info_json['uid'] = uid

statuses = info_json['statuses']

# 处理筛选微博数据

for status in statuses:

id = status['idstr']

if status['geo'] is not None:

lat = status['geo']['coordinates'][0]

lng = status['geo']['coordinates'][1]

pic_urls = status['pic_urls']

# 判断是否在北京

if (115.7 < lng < 117.4) and (39.4 < lat < 41.6):

# 若在北京,插入blog数据进库

blog_text = status['text'].replace('\'', '\'\'')

created_time = status['created_at']

try:

cursor.execute(

insert_blog_sql.format(uid=uid, id=id, blog_text=blog_text, lat=lat, lng=lng,

created_time=created_time))

except pymysql.err.OperationalError as e_blog:

logging.warning(e_blog.args[1])

pass

# conn.commit()

# 处理图片

for pic_url in pic_urls:

# 获取原图片二进制数据

pic_bin = handle_pic(pic_url['thumbnail_pic'])

# 读取exif 数据

pic_file = BytesIO(pic_bin) # 将二进制数据转化成文件对象便于读取exif数据信息和生成MD5

tag1 = exifread.process_file(pic_file, details=False, strict=True)

tag = {}

for key, value in tag1.items():

if key not in (

'JPEGThumbnail', 'TIFFThumbnail', 'Filename',

'EXIF MakerNote'): # 去除四个不必要的exif属性,简化信息量

tag[key] = str(value)

tags = json.dumps(tag) # dumps为json类型 此tag即为exif的json数据

# 生成MD5

MD5 = hashlib.md5(pic_file.read()).hexdigest()

# 首先把二进制图片用base64 转成字符串之后再存

try:

cursor.execute(

insert_pic_sql.format(pic_url=pic_url['thumbnail_pic'].replace('thumbnail', 'large'),

pic_bin=str(base64.b64encode(pic_bin))[2:-1], md5=MD5,

exif=tags))

except pymysql.err.OperationalError as e_pic:

logging.warning(e_pic.args[1])

pass

try:

cursor.execute(insert_relationship_sql.format(id=id, md5=MD5))

except pymysql.err.OperationalError as e_relation:

logging.warning(e_relation)

pass

conn.commit()

else:

logging.info(id + " is Not in Beijing")

pass

else:

logging.info(id + ' Geo is null')

pass

except pymysql.err.OperationalError as e:

logging.error(e.args[1])

pass

def judge_conn(i):

global conn

try:

conn.ping(True)

get_poiid_info(i)

except pymysql.err.OperationalError as e:

logging.error('Reconnect')

conn = pymysql.connect(host=db_host, user=db_user, passwd=db_pass, db=db, charset='utf8')

get_poiid_info(i)

def handle_tuple(a_tuple):

read_uid_set = []

for i in a_tuple:

read_uid_set.append(i[0])

return set(read_uid_set)

if __name__ == '__main__':

sql_find_uid = (

"SELECT userid FROM blog"

)

cursor.execute(sql_find_uid)

read_uid_tuple = cursor.fetchall()

read_list = handle_tuple(read_uid_tuple)

print(len(read_list))

new_uid = set(uid).difference(read_list)

print(len(new_uid))

pool = Pool()

pool.map(judge_conn, list(new_uid))

个人博客

爬虫图片mysql_爬取微博图片数据存到Mysql中遇到的各种坑\爬取微博图片\Mysql存储图片\微博爬虫...相关推荐

  1. mysql存储爬虫图片_爬取微博图片数据存到Mysql中遇到的各种坑\爬取微博图片\Mysql存储图片\微博爬虫...

    本人长期出售超大量微博数据.旅游网站评论数据,并提供各种指定数据爬取服务,Message to YuboonaZhang@Yahoo.com.同时欢迎加入社交媒体数据交流群:99918768 前言 由 ...

  2. 小猪的Python学习之旅 —— 14.项目实战:抓取豆瓣音乐Top 250数据存到Excel中

    小猪的Python学习之旅 -- 14.项目实战:抓取豆瓣音乐Top 250数据存到Excel中 标签:Python 一句话概括本文: 利用Excel存储爬到的抓取豆瓣音乐Top 250数据信息,还有 ...

  3. 抓取豆瓣音乐Top 250数据存到Excel中

    点击上方"程序员大咖",选择"置顶公众号" 关键时刻,第一时间送达! 引言: 失踪人口回归,最近比较迷茫,不知道是回头深究Android,还是继续 学Pytho ...

  4. 爬取图片到mysql数据库_爬取微博图片数据存到Mysql中遇到的各种坑\mysql存储图片\爬取微博图片...

    前言 由于硬件等各种原因需要把大概170多万2t左右的微博图片数据存到Mysql中.之前存微博数据一直用的非关系型数据库mongodb,由于对Mysql的各种不熟悉,踩了无数坑,来来回回改了3天才完成 ...

  5. 爬取微博图片数据存到Mysql中遇到的各种坑\mysql存储图片\爬取微博图片

    本人长期出售超大量微博数据.旅游网站评论数据,并提供各种指定数据爬取服务,Message to YuboonaZhang@Yahoo.com.同时欢迎加入社交媒体数据交流群:99918768 前言   ...

  6. python爬取图片存入mysql_python爬取微博图片数据存到Mysql中遇到的各种坑

    前言 由于硬件等各种原因需要把大概170多万2t左右的微博图片数据存到Mysql中.之前存微博数据一直用的非关系型数据库mongodb,由于对Mysql的各种不熟悉,踩了无数坑,来来回回改了3天才完成 ...

  7. 在ubuntu 16.04里使用python—scrapy将爬取到的数据存到mysql数据库中的一些随笔

    一.将爬取的数据保存到mysql数据库的代码(已经能将爬取的数据保存到json文件) (1)编辑Pipeline.py文件 (2)编辑settings.py文件 二.将数据保存至mysql数据库出现的 ...

  8. mint-ui 图片懒加载及请求数据加载中提示方法

    图片懒加载: 引入需要的文件 <script src="https://unpkg.com/vue-lazyload/vue-lazyload.js"></scr ...

  9. scrapy爬取某网站,模拟登陆过程中遇到的那些坑

    本节内容 在访问网站的时候,我们经常遇到有些页面必须用户登录才能访问.这个时候我们之前写的傻傻的爬虫就被ban在门外了.所以本节,我们给爬虫配置cookie,使得爬虫能保持用户已登录的状态,达到获得那 ...

最新文章

  1. 富士通打印机调整位置_打印机为什么卡纸 打印机四种卡纸原因及解决办法【介绍】...
  2. 1.2.2一个数可以有多少种用连续素数之和表示POJ 2739
  3. 【笔记】windows10安装linux(ubuntu)双系统教程(可能是现今最简单方法)
  4. 【若依(ruoyi)】验证码
  5. 淘宝商品数据库设计的一些经验
  6. 多重背包(dp专题)
  7. 基于TCP协议的电子词典
  8. 百度飞桨螺旋桨赋能生物医药,推动AI技术在药物研发领域的探索应用
  9. c语言智能车跑道检测程序,智能小车的循迹方法与流程
  10. 戈登贝尔奖是超级计算机应用的最高奖,实现零突破!中国获高性能计算应用领域最高奖戈登贝尔奖...
  11. Win10 设备管理器一个USB设备描述符请求失败解决方法
  12. 【LOJ2292】【BZOJ4897】【THUSC2016】成绩单(DP)
  13. 153870-20-3,S-acetyl-PEG3-alcohol羟基可以反应进一步衍生化合物
  14. 使用cmd(命令提示符)打开文件磁盘或者文件夹
  15. 天天搜题 大学生在线免费的搜题网站
  16. 丘成桐讲数学简史(2小时完整视频)
  17. 不同版本iOS的特性和差异
  18. go vscode go mod win环境配置
  19. [小黄书后台]手机短信验证码
  20. HTML日志查看器,如何在网页实时查看APP日志

热门文章

  1. AGV路径规划方法——A*算法
  2. c语言模仿atm源代码,C语言ATM程序模拟
  3. android图片涂鸦,具有设置画笔,撤销,缩放移动等功能(一)
  4. html页面涂鸦,HTML5 | Canvas画笔小应用(涂鸦板)
  5. 计网实验七:应用层协议服务配置(DNS,HTTP,FTP)
  6. 人脸检测实战进阶:使用 OpenCV 进行活体检测
  7. 如何用 Python 识别车牌
  8. 什么是Arduino? 了解有关此开源电子平台的信息
  9. 从狼群智能到无人机群协同决策
  10. 第六章 半导体存储器【微机原理】