python爬虫详解(七)——使用爬虫查看实时疫情状况
因为最近疫情慢慢又开始起来了,我也很担心疫情,所以用爬虫做了一个疫情爬取程序,没有做太细,一个大致的框架,感兴趣的可以看一下,顺便提醒一下出门别忘了戴口罩,防范疫情!!!
点个赞留个关注吧!!
上代码:
# -*- coding: utf-8 -*-
import requests
from bs4 import BeautifulSoupURL = requests.get('http://m.sy72.com/covid19/')
URL2 = URL.content
Soup = BeautifulSoup(URL2,'html.parser',from_encoding="utf-8") #解析器"""更新日期"""
date = Soup.find('div', attrs={'class': 'gn'}).find('span').get_text()
print('-------------------[国内疫情]: ['+date+']-------------------')Existing_diagnosis = Soup.find('div', attrs={'class': 't2'}).get_text()
Existing_diagnosis_list = Soup.find('div', attrs={'class': 't1 c0'}).get_text()
Existing_diagnosis_list2 = Soup.find('span', attrs={'class': 'c0'}).get_text()Cumulative_diagnosis = Soup.find_all('div', attrs={'class': 't2'})[1].get_text()
Cumulative_diagnosis_list = Soup.find('div', attrs={'class': 't1 c1'}).get_text()
Cumulative_diagnosis_list2 = Soup.find('span', attrs={'class': 'c1'}).get_text()Suspected_case = Soup.find_all('div', attrs={'class': 't2'})[2].get_text()
Suspected_case_list = Soup.find('div', attrs={'class': 't1 c2'}).get_text()
Suspected_case_list2 = Soup.find('span', attrs={'class': 'c2'}).get_text()Cured_cases = Soup.find_all('div', attrs={'class': 't2'})[3].get_text()
Cured_cases_list = Soup.find('div', attrs={'class': 't1 c3'}).get_text()
Cured_cases_list2 = Soup.find('span', attrs={'class': 'c3'}).get_text()Cases_deaths = Soup.find_all('div', attrs={'class': 't2'})[4].get_text()
Cases_deaths_list = Soup.find('div', attrs={'class': 't1 c4'}).get_text()
Cases_deaths_list2 = Soup.find('span', attrs={'class': 'c4'}).get_text()print('['+Existing_diagnosis +f':{Existing_diagnosis_list}{Existing_diagnosis_list2}] ['+ Cumulative_diagnosis+f':{Cumulative_diagnosis_list}{Cumulative_diagnosis_list2}] ['+Suspected_case+f':{Suspected_case_list}{Suspected_case_list2}] ['+Cured_cases+f':{Suspected_case_list}{Cured_cases_list2}] ['+Cases_deaths+f':{Cases_deaths_list}{Cases_deaths_list2}]')Overseas_input = Soup.find_all('div', attrs={'class': 't2'})[5].get_text()
Overseas_input_list = Soup.find('div', attrs={'class': 't1 c5'}).get_text()
Overseas_input_list2 = Soup.find('span', attrs={'class': 'c5'}).get_text()Asymptomatic = Soup.find_all('div', attrs={'class': 't2'})[6].get_text()
Asymptomatic_list = Soup.find('div', attrs={'class': 't1 c6'}).get_text()
Asymptomatic_list2 = Soup.find('span', attrs={'class': 'c6'}).get_text()Existing_symptoms = Soup.find_all('div', attrs={'class': 't2'})[7].get_text()
Existing_symptoms_list = Soup.find('div', attrs={'class': 't1 c7'}).get_text()
Existing_symptoms_list2 = Soup.find('span', attrs={'class': 'c7'}).get_text()High_risk_areas = Soup.find_all('div', attrs={'class': 't2'})[8].get_text()
High_risk_areas_list = Soup.find('div', attrs={'class': 't1 c8'}).get_text()
#High_risk_areas_list2 = Soup.find('span', attrs={'class': 'c8'}).get_text()Medium_risk_area = Soup.find_all('div', attrs={'class': 't2'})[9].get_text()
Medium_risk_area_list = Soup.find('div', attrs={'class': 't1 c9'}).get_text()
#Medium_risk_area_list2 = Soup.find('span', attrs={'class': 'c9'}).get_text()print('['+Overseas_input +f':{Overseas_input_list}{Overseas_input_list2}] ['+ Asymptomatic+f':{Asymptomatic_list}{Asymptomatic_list2}] ['+Existing_symptoms+f':{Existing_symptoms_list}{Existing_symptoms_list2}] ['+High_risk_areas+f':{High_risk_areas_list}] ['+Medium_risk_area+f':{Medium_risk_area_list}]')URL = requests.get('http://m.sy72.com/world/')
URL2 = URL.content
Soup = BeautifulSoup(URL2,'html.parser',from_encoding="utf-8") #解析器
print('\n-------------------[国外疫情]: ['+date+']-------------------')Existing_diagnosis_1 = Soup.find('div', attrs={'class': 't2'}).get_text()
Existing_diagnosis_1_list = Soup.find('div', attrs={'class': 't1 c1'}).get_text()
Existing_diagnosis_1_list2 = Soup.find('div',attrs={'class': 'sjj'}).find('span').get_text()Total_definite_diagnosis = Soup.find_all('div', attrs={'class': 't2'})[1].get_text()
Total_definite_diagnosis_list = Soup.find_all('div', attrs={'class': 't1 c1'})[1].get_text()
Total_definite_diagnosis_list2 = Soup.find_all('div',attrs={'class': 'sjj'})[1].find('span').get_text()Total_cured = Soup.find_all('div', attrs={'class': 't2'})[2].get_text()
Total_cured_list = Soup.find('div', attrs={'class': 't1 c3'}).get_text()
Total_cured_list2 = Soup.find_all('div',attrs={'class': 'sjj'})[2].find('span').get_text()Total_deaths = Soup.find_all('div', attrs={'class': 't2'})[3].get_text()
Total_deaths_list = Soup.find('div', attrs={'class': 't1 c4'}).get_text()
Total_deaths_list2 = Soup.find_all('div',attrs={'class': 'sjj'})[3].find('span').get_text()print('['+Existing_diagnosis_1 +f':{Existing_diagnosis_1_list}{Existing_diagnosis_1_list2}] ['+ Total_definite_diagnosis+f':{Total_definite_diagnosis_list}{Total_definite_diagnosis_list2}] 'f' ['+Total_cured+f':{Total_cured_list}{Total_cured_list2}] ['+Total_deaths+f':{Total_deaths_list}{Total_deaths_list2}]')
内容较为简单
python爬虫详解(七)——使用爬虫查看实时疫情状况相关推荐
- Python分布式爬虫详解(二)
上一章Python分布式爬虫详解(一)简单的介绍了什么是分布式爬虫,废话不多说,本章开始从零搭建一个爬取电影天堂电影信息的分布式爬虫. 本章知识点: a.CrawlSpider爬取电影天堂动作片第一页 ...
- 用python写一个简单的爬虫_Python实现简易Web爬虫详解
编辑推荐: 本文主要介绍了Python实现简易Web爬虫详解,希望对大家有帮助. 本文来自于脚本之家 ,由火龙果软件Alice编辑,推荐. 简介: 网络爬虫(又被称为网页蜘蛛),网络机器人,是一种按照 ...
- Python爬虫详解:爬虫是什么,如何做爬虫?
Python爬虫详解:爬虫是什么,如何做爬虫? 读前必看: 本篇文章为教学向文章,通俗易懂的语言难免有不合适的地方,请大佬自行退场 爬虫是什么? 去查网,你会看到这样的解释: 爬虫是一种按照一定的规则 ...
- python多线程详解 Python 垃圾回收机制
文章目录 python多线程详解 一.线程介绍 什么是线程 为什么要使用多线程 总结起来,使用多线程编程具有如下几个优点: 二.线程实现 自定义线程 守护线程 主线程等待子线程结束 多线程共享全局变量 ...
- Python|SQL详解之DDL|DML|DQL|DCL|索引|视图、函数和过程|JSON类型|窗口函数|接入MySQL|清屏|正则表达式|executemany|语言基础50课:学习(14)
文章目录 系列目录 原项目地址 第41课:SQL详解之DDL 建库建表 删除表和修改表 第42课:SQL详解之DML insert操作 delete 操作 update 操作 完整的数据 第43课:S ...
- 【python】详解类class的继承、__init__初始化、super方法
原文链接; https://blog.csdn.net/brucewong0516/article/details/79121179?utm_medium=distribute.pc_relevant ...
- SSH服务详解(七)– SSH 连接 Github
SSH 连接 Github SSH服务详解(一)–Linux SSH 服务器与客户端的安装与启动 SSH服务详解(二)–使用私钥登录 SSH 服务器(免密登录) SSH 服务详解 (三)-- 使用 S ...
- 07 Python数据类型详解
文章目录 一.整数类型(int)详解 1.1 整数的不同进制 1) 十进制形式 2) 二进制形式 3) 八进制形式 4) 十六进制形式 1.2 数字分隔符 1.3 相关方法 二.字符串类型(strin ...
- pydicom读取头文件_.dcm格式文件软件读取及python处理详解
要处理一些.dcm格式的焊接缺陷图像,需要读取和显示.dcm格式的图像.通过搜集资料收集到一些医学影像,并通过pydicom模块查看.dcm格式文件. 若要查看dcm格式文件,可下echo viewe ...
最新文章
- IT运维管理与ITIL
- c++new时赋初值_优质 quot;嵌入式C编程quot; 必备指南
- Linux 网络编程 常用socket函数详解 常用的函数讲解
- WinForm转WPF
- java ee 设计模式解析与应用_Java EE 设计模式解析与应用_IT教程网
- js 把含有转义符的字符串转成json格式
- Js 摄氏度和华氏度的转换
- 哔哩哔哩视频下载到电脑,bilibili UWP下载的视频重命名,blibli视频下载到电脑...
- onenote桌面版的安装
- Android获取外网ip
- 服务器销售术语,服务器术语大全
- R语言使用lmPerm包应用于线性模型的置换方法(置换检验、permutation tests)、使用lm模型构建多元线性回归模型、使用lmp函数生成置换检验多元线性回归模型
- 弘辽科技:淘宝补单补多久流量提升?有什么方法?
- codeSourcery 交叉编译环境搭建
- 解决桌面图标无法拖动之绝招
- 唯品会商品详情API接口(item_get-获得唯品会商品详情接口),唯品会详情API接口
- 【工业控制系统】工业控制系统(ICS) 安全简介第 2 部分
- Python缩进快捷键
- 软件版本管理工具大比拼
- 全球与中国零卡路里饮料市场深度研究分析报告
热门文章
- webpack出现CssSyntaxError
- 【程序员股民系列】如何用python, pandas, numpy, matplotlib绘制每日行业成交额图
- 【mysql】mysql 中 text,longtext,mediumtext 字段类型的意思, 以及区别
- 【leetcode】838. 推多米诺(模拟)
- 剑灵在该服务器上未获取到角色信息,白青FAQ!常见问题一网打尽
- 霍尼韦尔摄像头ip地址修改_霍尼韦尔BA BNA设置
- r计算百分位数_R语言:用R计算各种统计值
- 十分钟实现灭霸打响指灰飞烟灭的效果,android路由器app
- 大天使之剑服务器维护,《大天使之剑H5》9月4日服务器临时维护公告
- 生产进度管理系统为制造管理提供较完善的解决方案