因为最近疫情慢慢又开始起来了,我也很担心疫情,所以用爬虫做了一个疫情爬取程序,没有做太细,一个大致的框架,感兴趣的可以看一下,顺便提醒一下出门别忘了戴口罩,防范疫情!!!

点个赞留个关注吧!!

上代码:

# -*- coding: utf-8 -*-
import requests
from bs4 import BeautifulSoupURL = requests.get('http://m.sy72.com/covid19/')
URL2 = URL.content
Soup = BeautifulSoup(URL2,'html.parser',from_encoding="utf-8")  #解析器"""更新日期"""
date = Soup.find('div', attrs={'class': 'gn'}).find('span').get_text()
print('-------------------[国内疫情]: ['+date+']-------------------')Existing_diagnosis = Soup.find('div', attrs={'class': 't2'}).get_text()
Existing_diagnosis_list = Soup.find('div', attrs={'class': 't1 c0'}).get_text()
Existing_diagnosis_list2 = Soup.find('span', attrs={'class': 'c0'}).get_text()Cumulative_diagnosis = Soup.find_all('div', attrs={'class': 't2'})[1].get_text()
Cumulative_diagnosis_list = Soup.find('div', attrs={'class': 't1 c1'}).get_text()
Cumulative_diagnosis_list2 = Soup.find('span', attrs={'class': 'c1'}).get_text()Suspected_case = Soup.find_all('div', attrs={'class': 't2'})[2].get_text()
Suspected_case_list = Soup.find('div', attrs={'class': 't1 c2'}).get_text()
Suspected_case_list2 = Soup.find('span', attrs={'class': 'c2'}).get_text()Cured_cases = Soup.find_all('div', attrs={'class': 't2'})[3].get_text()
Cured_cases_list = Soup.find('div', attrs={'class': 't1 c3'}).get_text()
Cured_cases_list2 = Soup.find('span', attrs={'class': 'c3'}).get_text()Cases_deaths = Soup.find_all('div', attrs={'class': 't2'})[4].get_text()
Cases_deaths_list = Soup.find('div', attrs={'class': 't1 c4'}).get_text()
Cases_deaths_list2 = Soup.find('span', attrs={'class': 'c4'}).get_text()print('['+Existing_diagnosis +f':{Existing_diagnosis_list}{Existing_diagnosis_list2}]     ['+ Cumulative_diagnosis+f':{Cumulative_diagnosis_list}{Cumulative_diagnosis_list2}]     ['+Suspected_case+f':{Suspected_case_list}{Suspected_case_list2}]     ['+Cured_cases+f':{Suspected_case_list}{Cured_cases_list2}]     ['+Cases_deaths+f':{Cases_deaths_list}{Cases_deaths_list2}]')Overseas_input = Soup.find_all('div', attrs={'class': 't2'})[5].get_text()
Overseas_input_list = Soup.find('div', attrs={'class': 't1 c5'}).get_text()
Overseas_input_list2 = Soup.find('span', attrs={'class': 'c5'}).get_text()Asymptomatic = Soup.find_all('div', attrs={'class': 't2'})[6].get_text()
Asymptomatic_list = Soup.find('div', attrs={'class': 't1 c6'}).get_text()
Asymptomatic_list2 = Soup.find('span', attrs={'class': 'c6'}).get_text()Existing_symptoms = Soup.find_all('div', attrs={'class': 't2'})[7].get_text()
Existing_symptoms_list = Soup.find('div', attrs={'class': 't1 c7'}).get_text()
Existing_symptoms_list2 = Soup.find('span', attrs={'class': 'c7'}).get_text()High_risk_areas = Soup.find_all('div', attrs={'class': 't2'})[8].get_text()
High_risk_areas_list = Soup.find('div', attrs={'class': 't1 c8'}).get_text()
#High_risk_areas_list2 = Soup.find('span', attrs={'class': 'c8'}).get_text()Medium_risk_area = Soup.find_all('div', attrs={'class': 't2'})[9].get_text()
Medium_risk_area_list = Soup.find('div', attrs={'class': 't1 c9'}).get_text()
#Medium_risk_area_list2 = Soup.find('span', attrs={'class': 'c9'}).get_text()print('['+Overseas_input +f':{Overseas_input_list}{Overseas_input_list2}]     ['+ Asymptomatic+f':{Asymptomatic_list}{Asymptomatic_list2}]     ['+Existing_symptoms+f':{Existing_symptoms_list}{Existing_symptoms_list2}]     ['+High_risk_areas+f':{High_risk_areas_list}]     ['+Medium_risk_area+f':{Medium_risk_area_list}]')URL = requests.get('http://m.sy72.com/world/')
URL2 = URL.content
Soup = BeautifulSoup(URL2,'html.parser',from_encoding="utf-8")  #解析器
print('\n-------------------[国外疫情]: ['+date+']-------------------')Existing_diagnosis_1 = Soup.find('div', attrs={'class': 't2'}).get_text()
Existing_diagnosis_1_list = Soup.find('div', attrs={'class': 't1 c1'}).get_text()
Existing_diagnosis_1_list2 = Soup.find('div',attrs={'class': 'sjj'}).find('span').get_text()Total_definite_diagnosis = Soup.find_all('div', attrs={'class': 't2'})[1].get_text()
Total_definite_diagnosis_list = Soup.find_all('div', attrs={'class': 't1 c1'})[1].get_text()
Total_definite_diagnosis_list2 = Soup.find_all('div',attrs={'class': 'sjj'})[1].find('span').get_text()Total_cured = Soup.find_all('div', attrs={'class': 't2'})[2].get_text()
Total_cured_list = Soup.find('div', attrs={'class': 't1 c3'}).get_text()
Total_cured_list2 = Soup.find_all('div',attrs={'class': 'sjj'})[2].find('span').get_text()Total_deaths = Soup.find_all('div', attrs={'class': 't2'})[3].get_text()
Total_deaths_list = Soup.find('div', attrs={'class': 't1 c4'}).get_text()
Total_deaths_list2 = Soup.find_all('div',attrs={'class': 'sjj'})[3].find('span').get_text()print('['+Existing_diagnosis_1 +f':{Existing_diagnosis_1_list}{Existing_diagnosis_1_list2}]     ['+ Total_definite_diagnosis+f':{Total_definite_diagnosis_list}{Total_definite_diagnosis_list2}]   'f'  ['+Total_cured+f':{Total_cured_list}{Total_cured_list2}]     ['+Total_deaths+f':{Total_deaths_list}{Total_deaths_list2}]')

内容较为简单

python爬虫详解(七)——使用爬虫查看实时疫情状况相关推荐

  1. Python分布式爬虫详解(二)

    上一章Python分布式爬虫详解(一)简单的介绍了什么是分布式爬虫,废话不多说,本章开始从零搭建一个爬取电影天堂电影信息的分布式爬虫. 本章知识点: a.CrawlSpider爬取电影天堂动作片第一页 ...

  2. 用python写一个简单的爬虫_Python实现简易Web爬虫详解

    编辑推荐: 本文主要介绍了Python实现简易Web爬虫详解,希望对大家有帮助. 本文来自于脚本之家 ,由火龙果软件Alice编辑,推荐. 简介: 网络爬虫(又被称为网页蜘蛛),网络机器人,是一种按照 ...

  3. Python爬虫详解:爬虫是什么,如何做爬虫?

    Python爬虫详解:爬虫是什么,如何做爬虫? 读前必看: 本篇文章为教学向文章,通俗易懂的语言难免有不合适的地方,请大佬自行退场 爬虫是什么? 去查网,你会看到这样的解释: 爬虫是一种按照一定的规则 ...

  4. python多线程详解 Python 垃圾回收机制

    文章目录 python多线程详解 一.线程介绍 什么是线程 为什么要使用多线程 总结起来,使用多线程编程具有如下几个优点: 二.线程实现 自定义线程 守护线程 主线程等待子线程结束 多线程共享全局变量 ...

  5. Python|SQL详解之DDL|DML|DQL|DCL|索引|视图、函数和过程|JSON类型|窗口函数|接入MySQL|清屏|正则表达式|executemany|语言基础50课:学习(14)

    文章目录 系列目录 原项目地址 第41课:SQL详解之DDL 建库建表 删除表和修改表 第42课:SQL详解之DML insert操作 delete 操作 update 操作 完整的数据 第43课:S ...

  6. 【python】详解类class的继承、__init__初始化、super方法

    原文链接; https://blog.csdn.net/brucewong0516/article/details/79121179?utm_medium=distribute.pc_relevant ...

  7. SSH服务详解(七)– SSH 连接 Github

    SSH 连接 Github SSH服务详解(一)–Linux SSH 服务器与客户端的安装与启动 SSH服务详解(二)–使用私钥登录 SSH 服务器(免密登录) SSH 服务详解 (三)-- 使用 S ...

  8. 07 Python数据类型详解

    文章目录 一.整数类型(int)详解 1.1 整数的不同进制 1) 十进制形式 2) 二进制形式 3) 八进制形式 4) 十六进制形式 1.2 数字分隔符 1.3 相关方法 二.字符串类型(strin ...

  9. pydicom读取头文件_.dcm格式文件软件读取及python处理详解

    要处理一些.dcm格式的焊接缺陷图像,需要读取和显示.dcm格式的图像.通过搜集资料收集到一些医学影像,并通过pydicom模块查看.dcm格式文件. 若要查看dcm格式文件,可下echo viewe ...

最新文章

  1. IT运维管理与ITIL
  2. c++new时赋初值_优质 quot;嵌入式C编程quot; 必备指南
  3. Linux 网络编程 常用socket函数详解 常用的函数讲解
  4. WinForm转WPF
  5. java ee 设计模式解析与应用_Java EE 设计模式解析与应用_IT教程网
  6. js 把含有转义符的字符串转成json格式
  7. Js 摄氏度和华氏度的转换
  8. 哔哩哔哩视频下载到电脑,bilibili UWP下载的视频重命名,blibli视频下载到电脑...
  9. onenote桌面版的安装
  10. Android获取外网ip
  11. 服务器销售术语,服务器术语大全
  12. R语言使用lmPerm包应用于线性模型的置换方法(置换检验、permutation tests)、使用lm模型构建多元线性回归模型、使用lmp函数生成置换检验多元线性回归模型
  13. 弘辽科技:淘宝补单补多久流量提升?有什么方法?
  14. codeSourcery 交叉编译环境搭建
  15. 解决桌面图标无法拖动之绝招
  16. 唯品会商品详情API接口(item_get-获得唯品会商品详情接口),唯品会详情API接口
  17. 【工业控制系统】工业控制系统(ICS) 安全简介第 2 部分
  18. Python缩进快捷键
  19. 软件版本管理工具大比拼
  20. 全球与中国零卡路里饮料市场深度研究分析报告

热门文章

  1. webpack出现CssSyntaxError
  2. 【程序员股民系列】如何用python, pandas, numpy, matplotlib绘制每日行业成交额图
  3. 【mysql】mysql 中 text,longtext,mediumtext 字段类型的意思, 以及区别
  4. 【leetcode】838. 推多米诺(模拟)
  5. 剑灵在该服务器上未获取到角色信息,白青FAQ!常见问题一网打尽
  6. 霍尼韦尔摄像头ip地址修改_霍尼韦尔BA BNA设置
  7. r计算百分位数_R语言:用R计算各种统计值
  8. 十分钟实现灭霸打响指灰飞烟灭的效果,android路由器app
  9. 大天使之剑服务器维护,《大天使之剑H5》9月4日服务器临时维护公告
  10. 生产进度管理系统为制造管理提供较完善的解决方案