实现效果


运行环境

  • IDE VS2019

  • Python3.7

  • Chrome、ChromeDriver

  • Chrome和ChromeDriver的版本需要相互对应

先上代码,代码非常简短,包含空行也才50行,多亏了python强大的库

import os
import time
import requests
from selenium import webdriver
from lxml import etree
'''
python学习交流群:1136201545更多学习资料可以加群获取
'''
def getChapterUrl(url):headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.139 Safari/537.36"}part_url = "http://ac.qq.com"res = requests.get(url, headers=headers)html=res.content.decode()el = etree.HTML(html)li_list = el.xpath('//*[@id="chapter"]/div[2]/ol[1]/li')for li in li_list:for p in li.xpath("./p"):for span in p.xpath("./span[@class='works-chapter-item']"):item = {}list_title = span.xpath("./a/@title")[0].replace(' ', '').split(':')if list_title[1].startswith(('第', '序')):getChapterFile(part_url + span.xpath("./a/@href")[0], list_title[0],list_title[1])def getChapterFile(url,path1,path2):#path = os.path.join(path)#漫画名称目录path=os.path.join(path1)if not os.path.exists(path):os.mkdir(path)#章节目录path=path+'\\'+path2if not os.path.exists(path):os.mkdir(path)chrome=webdriver.Chrome()#"http://ac.qq.com/ComicView/index/id/505435/cid/2"chrome.get(url)time.sleep(4)imgs = chrome.find_elements_by_xpath("//div[@id='mainView']/ul[@id='comicContain']//img")for i in range(0, len(imgs)):js="document.getElementById('mainView').scrollTop="+str((i) * 1280)chrome.execute_script(js)time.sleep(3)print(imgs[i].get_attribute("src"))with open(path+'\\'+str(i)+'.png', 'wb') as f:f.write(requests.get(imgs[i].get_attribute("src")).content)chrome.close() print('下载完成') if __name__ == '__main__':getChapterUrl('http://ac.qq.com/Comic/ComicInfo/id/505435')

简单解释

输入一个漫画的url即可爬取该漫画所有的章节,由于是模拟用户爬取的,所以速度方面有点慢,我试了下爬取银魂前70章,用了1个半小时,代码中的sleep可以适当简短点已加快爬取的速度

付费的漫画是没有办法爬取的

喜欢看漫画的小伙伴就不要错过啦,python批量爬取动漫免费看相关推荐

  1. python爬虫--爬取9某1看剧网电视剧

    文章目录 python爬虫--爬取91看剧网电视剧 爬取视频必备知识 思路 代码 合并视频 python爬虫–爬取91看剧网电视剧 爬取视频必备知识 https://www.91kanju.com/v ...

  2. python爬虫爬取网页新闻标题-看完保证你会

    python爬虫爬取网页新闻标题方法 1.首先使用浏览自带的工具--检查,查找网页新闻标题对应的元素位置,这里查到的新闻标题是在 h3 标签中 2.然后使用编辑器编写python代码 2.1方法一: ...

  3. 计算机科学期末网页大作业快看漫画源码(纯享免费版)需要自取免费配置环境

    计算机科学期末网页大作业快看漫画源码(纯享免费版)需要自取免费配置环境 我的页面 我的 </div><div class="flex-grow-1">< ...

  4. Python爬虫-爬取快看漫画网图片并拼接成漫画长图

    Python爬虫-爬取快看漫画网图片并拼接成漫画长图 1.爬取图片 2.拼接图片 1.爬取图片 import os import requests from bs4 import BeautifulS ...

  5. Python爬虫---爬取腾讯动漫全站漫画

    Python爬虫---爬取腾讯动漫全站漫画 操作环境 网页分析 明确目标 提取漫画地址 提取漫画章节地址 提取漫画图片 编写代码 导入需要的模块 获取漫画地址 提取漫画的内容页 提取章节名 获取漫画源 ...

  6. 从零开始的爬虫学习(二)爬取动漫之家的漫画

    上篇讲了如何爬取一张图片,这里就爬取 大妈之家 的一部漫画吧! 可以通过修改目标地址,爬取任意一部 大妈之家 的一部漫画! 本篇内容 """ 1.抓取西刺代理网站的代理i ...

  7. python自动爬取快看漫画并发布至头条号(没编程基础也可学会)

    一,介绍 1.简介:这是一个可以自动爬取快看漫画上的漫画,下载到本地,并自动发布到今日头条号的编程,无编程基础的人也可学会 2.学习: 1)对于学习python技术的,你可以学习python爬虫技术 ...

  8. python 网上爬取数据源码_Python爬虫经常爬不到数据,或许你可以看一下小编的这篇文章...

    1.最简单的Python爬虫 最简单的Python爬虫莫过于直接使用urllib.request.urlopen(url=某网站)或者requests.get(url=某网站)例如:爬取漫客栈里面的漫 ...

  9. python爬虫爬取漫画(仅供学习)

    项目名: crawl_chuanwu 爬取链接:https://www.manhuadui.com/manhua/chuanwu/ 声明:本项目无任何盈利目的,仅供学习使用,也不会对网站运行造成负担. ...

最新文章

  1. BERT中的黑暗秘密
  2. 最近学习了责任链模式
  3. Ubuntu 16.04开机自动开启数字键盘NumLock
  4. Java NIO示例:多人网络聊天室
  5. python执行cmd并返回是否成功_python脚本执行CMD命令并返回结果的例子
  6. c语言goto语句用法_硬件工程师必知的10个C语言技巧
  7. 从我想,到我做 | 掘金年度征文
  8. 【方案分享】2021美图美学营销方案.pdf(附下载链接)
  9. LintCode 快速幂
  10. 【转载】Python自省
  11. 神奇小子重启自动驾驶项目,推出开源软件Comma Neo
  12. 绘一幅人人出彩的教育画卷
  13. Java线程池的四种创建方式
  14. 【FLASH存储器系列十二】Nand Flash芯片使用指导之二
  15. java经纬度工具类
  16. android 脚本模拟点击屏幕
  17. 我让Chat GPT准备了几份SAP 顾问英文面试自我介绍的模板,大家感受一下
  18. Node-内置模块:子进程 child_process
  19. 销宝:落地页转换率如何提高?
  20. 【工程实践】Linux删除文件与Python代码删除文件命令

热门文章

  1. Centos ansible部署,启动服务失败
  2. 有一个已经排好序的数组,要求输入一个数后,按原来排序规律将它插入数组中。
  3. 网页显示不全的原因css,css 页面显示不全怎么办
  4. 如何在iPhone和iPad上的Safari中在网页上查找文本
  5. 获取docker容器里面的root权限
  6. ANSI C标准库和POSIX库
  7. 计算机思维 Computational Thinking(转载)
  8. WebGL 和 Canvas 的关系
  9. 狄利克雷分布公式_Dirichlet Tree Distribution(狄利克雷树分布)
  10. library netcdf 路径_科学网—NetCDF安装记录 - 丁鹏基的博文