利用Python爬虫实现物流快递信息查询,简单易学
希望你拼命争取的,最后都能如你所愿。
文章目录
- 一、分析网页
- 二、python代码实现
- 1. selenium爬虫实现查询
- 2. requests爬虫实现查询
一、分析网页
二、python代码实现
1. selenium爬虫实现查询
"""
@Author :叶庭云
@Date :2020/9/18 15:01
@CSDN :https://blog.csdn.net/fyfugoyfa
"""
from selenium import webdriver
import time
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as ec
import cv2 as cv# 根据快递单号查询物流信息
def get_screenshot_and_info():chrome_driver = r'D:\python\pycharm2020\chromedriver.exe' # chromedriver的路径options = webdriver.ChromeOptions()# 关闭左上方 Chrome 正受到自动测试软件的控制的提示options.add_experimental_option('useAutomationExtension', False)options.add_experimental_option("excludeSwitches", ['enable-automation'])# 开启浏览器对象browser = webdriver.Chrome(options=options, executable_path=chrome_driver)# 访问这个urlbrowser.get('https://www.kuaidi100.com/')# 显示等待wait = WebDriverWait(browser, 5)wait.until(ec.presence_of_element_located((By.ID, 'menu-track')))# 窗口最大化browser.maximize_window()browser.find_element_by_name('postid').send_keys(nums)browser.find_element_by_id('query').click()time.sleep(1)browser.find_element_by_id('query').click()time.sleep(2)browser.execute_script("window.scrollBy(0, 488)")# 截图browser.get_screenshot_as_file(filename='info.png') items = browser.find_elements_by_xpath('//table[@class="result-info"]/tbody/tr')print('物流信息查询结果如下:\n')for item in items:time_ = item.find_element_by_xpath('.//td[1]').text.replace('\n', ' ')contex = item.find_element_by_xpath('.//td[3]').textprint(f'时间:{time_}')print(f'状态:{contex}\n')browser.quit()# 显示截图src = cv.imread(filename='info.png')src = cv.resize(src, None, fx=0.7, fy=0.7)cv.imshow('result', src)cv.waitKey(0)if __name__ == '__main__':nums = input('请输入您的单号:')print('\n')get_screenshot_and_info()
运行效果如下:
2. requests爬虫实现查询
"""
@Author :叶庭云
@Date :2020/9/18 15:01
@CSDN :https://blog.csdn.net/fyfugoyfa
"""
import requests
import jsondef query_info(i, j):headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24',"Referer": "https://www.kuaidi100.com/"}url = f'https://www.kuaidi100.com/query?type={j}&postid={i}&temp=0.53162373256954096&phone='resp = requests.get(url, headers=headers)# print(resp.text)datas = json.loads(resp.text)['data']# print(datas)print('您的快递物流信息查询结果如下:\n')for item in datas:time_ = item['time']info = item['context']print(f'时间:{time_}')print(f'物流状态:{info}' + '\n')if __name__ == '__main__':delivery_dic = {'圆通': 'yuantong', '申通': 'shentong', '中通': 'zhongtong', '百世快递': 'huitongkuaidi','韵达': 'yunda', '顺丰': 'shunfeng', '天天快递': 'tiantian', '邮政': 'youzhengguonei','EMS': 'ems', '京东': 'jd', '德邦快递': 'debangwuliu', '极兔快递': 'jtexpress'}post_id = input('请输入你要查询物流的快递单号:')delivery = input('请输入快递公司:')query_info(post_id, delivery_dic[delivery])
运行结果如下:
requests爬虫查询速度较快,但需要输入快递公司,便于构造接口url来请求查询。
利用Python爬虫实现物流快递信息查询,简单易学相关推荐
- 利用python爬虫爬取斗鱼图片(简单详细)
关于 在一个安静的夜晚,我缓慢的打开了电脑,望着已经睡着的父母,我轻轻的把门关上,看着斗鱼颜值主播的魅力,我不尽感叹,要是每天都可以不需要那么麻烦的去看那该有多好! 于是我想起了最近刚学的爬虫,嘴角露 ...
- python爬虫怎么赚钱-个人利用Python爬虫技术怎么挣钱-10万被动收入...
我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...
- python爬虫赚钱的经历-个人利用Python爬虫技术怎么挣钱-10万被动收入
我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...
- 02-分享:个人利用 Python 爬虫技术怎么挣钱-1万被动收入
你好,我是悦创. 今天我来分享一篇,猿人学的文章.原文链接:https://www.yuanrenxue.com/crawler/earn-money-python-crawler.html 我利用 ...
- python爬虫怎么赚钱-个人利用Python爬虫技术怎么挣钱-10万被动收入
我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...
- 手把手教你利用 python 爬虫分析基金、股票
手把手教你利用 python 爬虫分析基金.股票 文章目录 手把手教你利用 python 爬虫分析基金.股票 第一步:基金数据爬取 第二步:股票增持计算 第三步:好股基金选取 桌面程序 exe 从前大 ...
- 利用python爬虫与数据分析,打造最强玩法,轻松成为大神级玩家!
前言: 最近迷上了一款游戏,但是作为一名程序员的我是不可能只玩游戏的,我必须把它的官网数据采集下来! 环境: windows python3.6.5 模块: requests jsonpath pyg ...
- 四小时学python爬虫爬取信息系列(第一天)
四小时学python爬虫爬取信息系列(第一天)(全是干货) 1.安装requests库(可以在电脑python,我是进入anaconda我建的虚拟环境) anaconda虚拟环境法流程: conda ...
- 【爬虫】利用Python爬虫爬取小麦苗itpub博客的所有文章的连接地址并写入Excel中(2)...
[爬虫]利用Python爬虫爬取小麦苗itpub博客的所有文章的连接地址并写入Excel中(2) 第一篇( http://blog.itpub.net/26736162/viewspace-22865 ...
最新文章
- 平均 14926 元!2021 年 5 月程序员工资统计出炉
- linux 简介各发行版
- mysql查询优化技巧
- C语言 *n++和(*n)++的区别
- 【数据结构】线性表(一):顺序列表
- linux下的malloc申请的是虚拟还是物理的,关于malloc申请内存
- 制作GHOST XP 基于自由天空驱动包+SysPacker 2.1
- dsp广告和信息流广告区别_信息流广告和sem广告有哪些区别2021?
- numpy教程:基本输入输出和文件输入输出Input and output
- android10设置led指示灯,Android8.0在Setting中添加Led指示灯闪烁开关
- shell unexpected operator
- Neo4j之下载安装:windows
- 【观察】揭秘宏杉科技存储自主创新“登顶”之路
- PPT使用技巧——绘制圆角曲线
- qgridlayout 滚动时固定第一行_滚动轴承组合设计应考虑的问题
- latex怎么看论文字数_如何确定latex文档字数
- 微信隐藏功能:微信怎么群发消息给好友不建群?
- MATLAB之微分方程求解(十一)
- 该网页无法正常运作解决方法
- CSS基础:margin在行内元素及行级块元素失效两个元素之间margin重叠