Python简单爬取图书信息及入库
课堂上老师布置了一个作业,如下图所示:
就是简单写一个借书系统。
大概想了一下流程,登录——>验证登录信息——>登录成功跳转借书界面——>可查看自己的借阅书籍以及数量。。。
登录可以很快实现,但借书界面里的数据怎么来呢?
不可能百度搜索书籍信息,然后一条一条来复制粘贴吧
所以,我想到了Python。
思路:通过Python爬取指定某读数平台,然后将解析的数据直接存到数据库。
URL:https://weread.qq.com/
打开开发者工具,我们可以很快锁定所要爬取的信息;
学过jQuery解析库的,可以发现用pyquery库选择对应class属性,可以很快获取到需要的信息;
拿到数据后,使用pymysql将数据存入数据库,需要提前创建好数据库和表噢,当然也可以用代码实现;
↓
因为该读数平台的书籍信息是动态加载,所以一次可以爬20条,但可以通过循环index,来获取多条数据。或者,也可以通过selenium库来实现网页加载自动化,从而拿到所有数据。
# -*- coding=utf-8 -*-
from pyquery import PyQuery
import requests
import pymysqlheader = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) ""AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.82 Safari/537.36"
}# 获取html源码
def getUrl(url):re = requests.get(url, headers=header)return re# 获取数据并清洗
def getData(html):doc = PyQuery(html)name = doc(".wr_bookList_item_title")author = doc(".wr_bookList_item_author a")percent = doc(".wr_bookList_item_reading_percent")desc = doc(".wr_bookList_item_desc")lists = []for i in range(len(name)):try:li = [name[i].text, author[i].text, percent[i].text, desc[i].text]except Exception as e:li = [name[i].text, author[i].text, "null", desc[i].text]lists.append(li)return lists# 连接数据库,存取数据
def saveDate(lists):db = pymysql.connect(host='127.0.0.1',port=3306,user='root',password='zhy123',database='mybooks',charset='utf8')cursor = db.cursor()for num in lists:sql = "insert into books_copy1(title,author,percent,prec) " \"VALUES ('%s','%s','%s','%s')" % (num[0], num[1], num[2], num[3])try:cursor.execute(sql)db.commit()except Exception as e:print(e)db.rollback()print("保存成功!!!")def main():url = 'https://weread.qq.com/web/category/700002'html = getUrl(url).content.decode('utf-8')lists = getData(html)# print(lists)saveDate(lists)if __name__ == '__main__':main()
注意了,直接复制此代码运行,是会报错的喔!
需要确定自己电脑是否已经安装了mysql,其次修改代码里的用户名和密码,最后是数据库和表的名称喔。
我的简单借书小系统⁄(⁄ ⁄•⁄ω⁄•⁄ ⁄)⁄
登录界面:
借书界面:
我的借书界面:
前端界面有些马虎了,凑合凑合O(∩_∩)O~
那就这样吧 byebye~~~
Python简单爬取图书信息及入库相关推荐
- Python 分布式爬取 InfoQ 信息
Python 分布式爬取 InfoQ 信息 完整代码下载:https://github.com/tanjunchen/SpiderProject/tree/master/InfoQ #!/usr/bi ...
- 用python爬虫爬取微博信息
用python爬虫爬取微博信息 话不多说,直接上代码! import requests from bs4 import BeautifulSoup from urllib import parse i ...
- Python简单爬取电影磁力链接
Python简单爬取电影磁力链接 网页的链接:http://www.ygdy8.net/html/gndy/dyzz/list_23_2.html 打开你想要的电影:http://www.ygdy8. ...
- python 爬虫爬取小说信息
1.进入小说主页(以下示例是我在网上随便找的一片小说),获取该小说的名称.作者以及相关描述信息 2.获取该小说的所有章节列表信息(最重要的是每个章节的链接地址href) 3.根据每个章节的地址信息下载 ...
- 复工复产,利用Python爬虫爬取火车票信息
文章目录 Python 爬虫操作基本操作 python 标准库 urllib 获取信息 上传信息 python 标准库 urllib3 获取信息 上传信息 第三方库 requests 获取特征信息 模 ...
- python爬虫爬取房源信息
目录 一.数据获取与预处理 二.csv文件的保存 三.数据库存储 四.爬虫完整代码 五.数据库存储完整代码 写这篇博客的原因是在我爬取房产这类数据信息的时候,发现csdn中好多博主写的关于此类的文 ...
- 读书笔记(十)——python简单爬取企查查网企业信息,并以excel格式存储
2019独角兽企业重金招聘Python工程师标准>>> 今天这个小爬虫是应朋友,帮忙写的一个简单的爬虫,目的是爬取企查查这个网站的企业信息. 编程最终要的就是搭建编程环境,这里我们的 ...
- python 爬取企业注册信息_读书笔记(十)——python简单爬取企查查网企业信息,并以excel格式存储...
今天这个小爬虫是应朋友,帮忙写的一个简单的爬虫,目的是爬取企查查这个网站的企业信息. 编程最终要的就是搭建编程环境,这里我们的编程环境是: python3.6 BeautifulSoup模块 lxml ...
- Python|简单爬取豆瓣网电影信息
欢迎点击「算法与编程之美」↑关注我们! 本文首发于微信公众号:"算法与编程之美",欢迎关注,及时了解更多此系列文章. 欢迎加入团队圈子!与作者面对面!直接点击! 前言: 在掌握一些 ...
最新文章
- 使用函数求两个整数的最大公约数和最小公倍数
- 13 登陆_13级!凌晨,“黑格比”登陆!对莆田的最新影响……
- 为什么计算机专业学生要学Linux系统?
- redis 用户订单缓存_Redis实战(12)-基于Key失效和定时任务实现订单支付超时自动失效...
- 大数据_Hbase-Filter 索引(优化)_根据column查询---Hbase工作笔记0020
- 外媒:伊朗政府封锁加密通讯应用Signal
- Java生成随机数原理_java随机数生成的原理
- 妇产科学习题---有答案
- HTTP请求常见错误码大全
- 单片机入门--常见单片机PIC\STM32
- 1、mysql创建事件
- QT中自定义控件和插件大致方法
- 【玖哥乱弹】祭天时不同程序员的不同杀法
- Android 源码之overlay分析
- 成都短期计算机python培训
- 健康打卡每日提醒累了?那就让自动化帮你---HiFlow,应用连接自动化助手
- 最新版的docker安装
- 闻灾情 忆国殇 山河呜咽 寄哀思
- 大数据平台安装部署(适用虚拟机级真实服务器,亲测)
- 王道论坛机试指南学习笔记(五)搜索