爬虫结合批量下载评书、有声书、戏曲等的使用教程
为了教妈妈如何给姥爷下载唱戏机评书歌曲
出了一份图解教程如下
1.打开ht网.(此爬虫专用网站)
2.在网站上选择喜欢的内容记住他的id号码(下图举例)图片中id号为9774
3.以家里电脑为例,进入F盘名为“评书”文档
4.打开有声书爬虫工具
5.根据所示例子id,所以此处输入9774,输入后,按回车键执行
显示书籍名称和章数后,按照提示输入“1”后,按回车键开始下载
因为例子共14章所以等十四章下载结束后,即可关闭窗口
6.此时F盘评书文件档中已有此书下载地址的记事本文件,打开他,并全选复制。(下载地址会生成在有声书爬虫程序的同一目录下)
7.打开迅雷,创建新任务,点红色标记标选的加号
9.此时会自动输入到迅雷下载任务面板中(如果没有显示,再次复制所有下载地址即可)
10.点击此处,选择想要保存的位置开始下载(注意一点的是需要提前创建所放下载文件的文档,图中我把文档创建为“ljc父子")
11.还是原来的目录里,此音频已经全下载完毕。
12.直接拖入到内存卡中即可 。
程序代码用python编写
# -*- coding: utf-8 -*-
import requests
import re
from bs4 import BeautifulSoup
import osos.environ['NO_PROXY'] = 'ting89.com'
BaseUrl = "http://www.ting89.com/"
listUrl = "books/"
downUrl = "down/?"
SuffixUrl = ".html"#获取章节数量以及小说名称
def get_directory(bookId):total = 0s_num = bookId.__str__()print('获取%s书籍' % s_num)FinalUrl = BaseUrl + listUrl + s_num + SuffixUrlget = requests.get(FinalUrl)get.encoding = 'gbk'soup = BeautifulSoup(get.text, 'lxml')title = soup.find('img', class_='imgd')['alt']div_directory = soup.find('span', class_="gaosuxiazai").parent.next_siblingdirectory = div_directory.childrenfor s1 in directory:total = sum(1 for _ in s1)breakreturn total,title# 获取地址
def get_chapter_url(number,id):print('获取%d章地址' % (number+1))s_num = number.__str__()s_id = id.__str__()FinalUrl = BaseUrl + downUrl + s_id + "-" + s_num +SuffixUrlget = requests.get(FinalUrl)get.encoding = 'gbk'soup = BeautifulSoup(get.text, 'lxml')iframe = soup.find('iframe')str_iframe = str(iframe)pat = re.compile('(?<=url=).*(mp3)')decstr = re.search(pat,str_iframe)return decstr.group(0)def write_txt(text,name):# path = os.getcwd() + '\\'+name+'\\'path = os.getcwd() + '\\'if (os.path.exists(path)):file = open(path+name+'下载地址.txt', "a",encoding='utf-8')file.write(text)return Falseelse:os.makedirs(path)return Truedef doit():isRight = '2'while(isRight=='2'):print('输入书籍id:')id = input()info = get_directory(id)total = info[0]title = info[1]i = 0;print('书籍名称:%s' % title)print('共%d章'%total)print('输入1开始下载,输入2重新输入id')isRight = input()print('开始下载')while(i<total):print('下载%d章'%(i+1))url = get_chapter_url(i, id)write_txt(url+"\n",title)i = i+1print('下载完成回车退出')input()if __name__ == '__main__':doit()
学习与吾爱破解论坛 代码部分如有侵权请联系删除
爬虫结合批量下载评书、有声书、戏曲等的使用教程相关推荐
- 【爬虫实战项目】Python爬虫批量下载评书音频并保存本地(附源码)
前言 今天给大家介绍的是Python爬虫批量下载评书音频并保存本地,在这里给需要的小伙伴们代码,并且给出一点小心得. 首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是这 ...
- 2021-03-10 Python多线程爬虫快速批量下载图片
Python多线程爬虫快速批量下载图片 1.完成这个需要导入的模块 urllib,random,queue(队列),threading,time,os,json 第三方模块的安装 键盘win+R,输入 ...
- python爬虫实现批量下载百度图片
今天和小伙伴们合作一个小项目,需要用到景点图片作为数据源,在百度上搜索了一些图片,感觉一个一个手动保存太过麻烦,于是想到用爬虫来下载图片. 本次代码用到了下列一些python模块,需要预先安装Beau ...
- python爬虫+ffmpeg批量下载ts文件,解密合并成mp4
标题 python爬虫+ffmpeg批量下载ts文件,解密合并成mp4 文章目录 标题 前言 一.分析目标 二.寻找url规律 三.写代码 总结 前言 (第一次写博客,写的不好请见谅哈~~) 目标是大 ...
- 爬虫案例:利用python爬虫关键词批量下载高清大图
环境: python3+pycharm+requests+re+BeatifulSoup+json 这个确实也属实有一些勉强,不少童鞋私信问我有木有 下载大图 的源码,我说可能会有,现在分享给大家. ...
- 【爬虫】批量下载B站收藏夹视频 - Python
批量下载B站收藏夹视频 起因 开发过程 环境需求 B站API介绍 收藏夹基本信息 收藏夹中各个视频的AV号 收藏夹中各个视频的BV号 最终代码 起因 不知道大家在浏览自己的B站收藏夹的时候,有没有遇到 ...
- 微信公众平台接口调试工具json格式不对怎么搞_一步步教你打造微信公众号文章爬虫(3)-批量下载...
本文为本专题第3篇,如果你基础不错的话只看这一篇的讲解及源代码应该就能轻松实现批量下载所有文章了,基础稍差的可以先看一下前两篇,只要你有点基础,有点耐心,八成朋友都至少能照葫芦画瓢实现批量下载文章的功 ...
- 爬虫python创意_爬虫案例:利用python爬虫关键词批量下载高清大图
环境: python3+pycharm+requests+re+BeatifulSoup+json 这个确实也属实有一些勉强,不少童鞋私信问我有木有 下载大图 的源码,我说可能会有,现在分享给大家. ...
- 利用python爬虫关键词批量下载高清大图!
前言 在上一篇 写文章没高质量配图?python爬虫绕过限制一键搜索下载图虫创意图片 !中,我们在未登录的情况下实现了图虫创意 无水印高清小图 的批量下载.虽然小图能够在一些移动端可能展示的还行,但是 ...
最新文章
- 使用Commons Logging - Java异常处理
- Microsoft Visual Studio 打开代码出现乱码解决方案
- 手脱ACProtect V1.4X(有Stolen Code)之补区段
- Linux --- awk
- aⅴgo安装包下载_Mysql 安装
- java element string_Java StackTraceElement toString()方法
- PAIP.MYSQL SLEEP 连接太多解决
- 定时任务及分布式定时任务注意事项
- AI玩Flappy Bird│基于DQN的机器学习实例【完结】
- word在图片上添加文字且不改变原图教程
- 频率单位转换 hz cpd cph
- 详解Shell脚本:正则表达式
- ThreadPoolTaskScheduler实现动态管理定时任务
- 创建一个微信小程序——如何注册账号,安装微信开发者工具,创建一个小程序(详细步骤版)
- 测试对比了 6 款 Mac 系统监控软件,你觉得哪个最优秀?
- 牛客网SQL实战二刷 | Day10
- 【26】删除有序数组中的重复选项
- 题解-表达式括号匹配
- Hibernate开发实践笔记--对象在set属性时更新了数据库问题
- Java 数据结构笔记