OK
1,先进行爬取基础信息!
运行程序:【通过生成的CVE列表,多生成几个文件。后面会有用处的!】
cve编号写入cve_num0.json成功!【备份】
cve编号写入cve_num1.json成功!【爬取影响产品信息】
cve编号写入cve_num2.json成功!【记录影响产品信息】
cve编号写入cve_num3.json成功!【爬取对应的POC信息】
cve编号写入cve_num4.json成功!【记录对应的POC信息】

2,爬取影响产品信息
认为制造断点:

https://www.cvedetails.com/cve/CVE-2019-1020014/
正在获取:第6个数据信息。即是:/cve/CVE-2019-1020014/所对应的影响产品信息
成功存储:第6个数据信息。即是:/cve/CVE-2019-1020014/所对应的影响产品信息
************已经成功移除存储在cve_num2:/cve/CVE-2019-1020014/在列表的内容!************https://www.cvedetails.com/cve/CVE-2019-1020013/
正在获取:第7个数据信息。即是:/cve/CVE-2019-1020013/所对应的影响产品信息Process finished with exit code -1

再次运行:

https://www.cvedetails.com/cve/CVE-2019-1020013/
正在获取:第7个数据信息。即是:/cve/CVE-2019-1020013/所对应的影响产品信息
成功存储:第7个数据信息。即是:/cve/CVE-2019-1020013/所对应的影响产品信息
************已经成功移除存储在cve_num2:/cve/CVE-2019-1020013/在列表的内容!************https://www.cvedetails.com/cve/CVE-2019-1020012/
正在获取:第8个数据信息。即是:/cve/CVE-2019-1020012/所对应的影响产品信息

说明容错性可以!
之前的数据存在,说明并未覆盖!
看看结果:OK,测试通过!

3,试试POC爬取:

原理跟之前的一样,也是复制,并且每次中断之后的起点不一样!

【由于,第一页的都没有对应的POC,我们人为添加一份!】

仅在第四个添加即可!因为会进行复制,并且覆盖!

1,老规矩人为中断!

************已经成功复制在cve_num4的内容************suffix:/cve/CVE-2019-1020019/
************本次:是位于列表第:1位的CVE编号。爬取:/cve/CVE-2019-1020019/所对应的信息!************
正在处理 ['2019-1020019']Process finished with exit code -1

再次启动:

suffix:/cve/CVE-2019-1020019/
************本次:是位于列表第:1位的CVE编号。爬取:/cve/CVE-2019-1020019/所对应的信息!************
正在处理 ['2019-1020019']

e/CVE-2020-8866/:是可以的!来看一下结果:

{"cve_num": "2020-8866","poc_filepath--1:": "D:/1swqcve/poc_down/2020-8866---1.py","exp_poc_title--1:": "Horde Groupware Webmail Edition 5.2.22 - PHAR Loading","status--1:": "download_success","poc_filepath--2:": "D:/1swqcve/poc_down/2020-8866---2.py","exp_poc_title--2:": "Horde Groupware Webmail Edition 5.2.22 - PHP File Inclusion","status--2:": "download_success"
}

再进行一次中断:

suffix:/cve/CVE-2019-1020013/
************本次:是位于列表第:7位的CVE编号。爬取:/cve/CVE-2019-1020013/所对应的信息!************
正在处理 ['2019-1020013']
['2019-1020013'] 查询结果soup返回
目标节点已经返回
节点验空已完成
************成功存储cve_num:/cve/CVE-2019-1020013/对应的exploit信息!************************已经成功移除存储在cve_num1:/cve/CVE-2019-1020013/在列表的内容!************suffix:/cve/CVE-2019-1020012/
************本次:是位于列表第:8位的CVE编号。爬取:/cve/CVE-2019-1020012/所对应的信息!************Process finished with exit code -1

再次启动:


************已经成功复制在cve_num4的内容************suffix:/cve/CVE-2019-1020012/
************本次:是位于列表第:8位的CVE编号。爬取:/cve/CVE-2019-1020012/所对应的信息!************
正在处理 ['2019-1020012']

并未出现错位现象!

哈哈,终于遇到系统网络错误了!

之前:

suffix:/cve/CVE-2019-1020011/
************本次:是位于列表第:9位的CVE编号。爬取:/cve/CVE-2019-1020011/所对应的信息!************
正在处理 ['2019-1020011']
Traceback (most recent call last):File "D:/pycharmworkspace/temp1/swq_succ/swq_exploit.py", line 236, in <module>cve_inf_context[i]['exp_poc'] = write(suffix)File "D:/pycharmworkspace/temp1/swq_succ/swq_exploit.py", line 144, in writesoup = get_source(cve_num)File "D:/pycharmworkspace/temp1/swq_succ/swq_exploit.py", line 128, in get_sourceinput_first = WebDriverWait(browser, 10).until(EC.presence_of_element_located(File "D:\python_install\lib\site-packages\selenium\webdriver\support\wait.py", line 80, in untilraise TimeoutException(message, screen, stacktrace)
selenium.common.exceptions.TimeoutException: Message: Process finished with exit code 1

之后:


************已经成功复制在cve_num4的内容************suffix:/cve/CVE-2019-1020011/
************本次:是位于列表第:9位的CVE编号。爬取:/cve/CVE-2019-1020011/所对应的信息!************
正在处理 ['2019-1020011']

OK!【完美!】

完整代码:密码myname大写

爬取--- https://www.exploit-db.com/ 下载POC较完善的代码【2】相关推荐

  1. https://www.exploit-db.com/下载POC比较完善的代码

    1,通过读取CVE编号自动下载 2,由于网络问题,下载容易中断.所以设置一个变量来记录执行到了哪一步. i = 0 #重新开始的话,记得从cve_num1.json的最后一行中取值 可以将这个变量加在 ...

  2. 爬取三千条数据需要多久_只需几十行代码,Python就能轻松爬取 3000+ 上市公司的信息...

    点击关注"Python学习与数据挖掘" 更多超级干货第一时间推送给你哦!!! 入门爬虫很容易,几行代码就可以,可以说是学习 Python 最简单的途径.刚开始动手写爬虫,你只需要关 ...

  3. python爬取qq音乐周杰伦_Python爬取QQ音乐url及批量下载

    QQ音乐还是有不少的好音乐,有些时候想要下载好听的音乐,如果在网页下载都是还需要登录什么的.于是,来了个QQmusic的爬虫.至少我觉得for循环爬虫,最核心的应该就是找到待爬元素所在url吧. 参考 ...

  4. Python爬取京东商品评论和图片下载

    Python爬取京东商品评论和图片下载 代码仅供学习使用,切勿扩散并且频繁爬取网站 贴上代码和注释,方便自己下次看 import requests import time import json im ...

  5. 爬取酷狗歌曲并进行下载用的是selenuim

    爬取酷狗歌曲并进行下载用的是selenuim 1. 请求的url并发起请求 2. 定位元素,循环遍历 3. 窗口的转移 4. 获取歌曲的下载路径 5. 保存到指定的文件里面 6. 总结 开始来看看吧 ...

  6. python 爬取https://wall.alphacoders.com上的壁纸(入门级别)

    python 爬取https://wall.alphacoders.com上的壁纸 0,环境 python3.7 库:requests,BeautifulSoup4 1,目标 https://wall ...

  7. [爬虫]Python爬取网易云音乐搜索并下载歌曲!

    Python爬取网易云音乐搜索并下载歌曲! 文章目录 Python爬取网易云音乐搜索并下载歌曲! 1.准备工作 2."实地"观察 3.开始码代码! 4.搜索并下载 结束语 1.准备 ...

  8. 爬取教学立方的所有课件下载链接

    爬取教学立方的所有课件下载链接 爬取一门课程下的所有课件链接,点击链接即可下载 待追加功能: 将代码改为面向对象 写入文件的方式 直接进行下载到指定的目录文件夹下 已实现功能: 获取课件的下载链接 获 ...

  9. Python爬取QQ音乐url及批量下载

    QQ音乐还是有不少的好音乐,有些时候想要下载好听的音乐,如果在网页下载都是还需要登录什么的.于是,来了个QQmusic的爬虫.至少我觉得for循环爬虫,最核心的应该就是找到待爬元素所在url吧. 参考 ...

最新文章

  1. 记录一次frp失效bug
  2. python tensorflow tf.session类
  3. JZOJ 5197. 【NOIP2017提高组模拟7.3】C
  4. Java字符类isLowerCase()方法与示例
  5. java连接数据库 oracle,Oracle数据库之一分钟教你学会用java连接Oracle数据库
  6. Linux中关机与重启命令
  7. 经典傅里叶算法小集合 附完整c代码
  8. 安卓干货——安卓NFC通信
  9. 企业微信机器人消息发送(文本、图片、文件)
  10. msm 8953 camera 流程
  11. js去除字符串中的空白字符(也可以去除其他字符串)
  12. 非线性方程求根方法——二分法
  13. PTA 7-10 字符转换 (15分)
  14. 中国移动的指令大全!(不再需要人工台)
  15. 直立代码分析__两轮平衡小车原理
  16. 一个模仿布卡那样的划动手势看在线漫画的简单应用DEMO
  17. Project2013工期小数点问题0.88、1.14、1.13
  18. Python 读取图片文件转换格式
  19. 记一次腾讯实习招聘(笔试)
  20. 微信小程序,时间戳转为日期格式

热门文章

  1. 特斯拉AI团队招兵买马:“英雄不问出处”
  2. 叫你一声“孙悟空”,敢答应么?
  3. 研发投入超876亿的华为,将如何进击云+AI?
  4. Redis的keys命令到底有多慢?
  5. MySQL这样写UPDATE语句,劝退
  6. 服务发现对比:Zookeeper vs. etcd vs. Consul
  7. 如果要存ip地址,用什么数据类型比较好?
  8. Java8 中有趣酷炫的小技巧
  9. OMG:为什么用了索引,查询还是慢?
  10. 面试官:来说说单点登录的三种实现方式