希望你拼命争取的,最后都能如你所愿。

文章目录

  • 一、分析网页
  • 二、python代码实现
    • 1. selenium爬虫实现查询
    • 2. requests爬虫实现查询

一、分析网页

很多人学习python,不知道从何学起。
很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。
很多已经做案例的人,却不知道如何去学习更加高深的知识。
那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!??¤
QQ群:623406465

快递100网站可以很方便的查询快递的物流信息

二、python代码实现

1. selenium爬虫实现查询

"""
@Author  :叶庭云
@Date    :2020/9/18 15:01
@CSDN   :https://blog.csdn.net/fyfugoyfa
"""
from selenium import webdriver
import time
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as ec
import cv2 as cv# 根据快递单号查询物流信息
def get_screenshot_and_info():chrome_driver = r'D:\python\pycharm2020\chromedriver.exe'  # chromedriver的路径options = webdriver.ChromeOptions()# 关闭左上方 Chrome 正受到自动测试软件的控制的提示options.add_experimental_option('useAutomationExtension', False)options.add_experimental_option("excludeSwitches", ['enable-automation'])# 开启浏览器对象browser = webdriver.Chrome(options=options, executable_path=chrome_driver)# 访问这个urlbrowser.get('https://www.kuaidi100.com/')# 显示等待wait = WebDriverWait(browser, 5)wait.until(ec.presence_of_element_located((By.ID, 'menu-track')))# 窗口最大化browser.maximize_window()browser.find_element_by_name('postid').send_keys(nums)browser.find_element_by_id('query').click()time.sleep(1)browser.find_element_by_id('query').click()time.sleep(2)browser.execute_script("window.scrollBy(0, 488)")# 截图browser.get_screenshot_as_file(filename='info.png')   items = browser.find_elements_by_xpath('//table[@class="result-info"]/tbody/tr')print('物流信息查询结果如下:\n')for item in items:time_ = item.find_element_by_xpath('.//td[1]').text.replace('\n', ' ')contex = item.find_element_by_xpath('.//td[3]').textprint(f'时间:{time_}')print(f'状态:{contex}\n')browser.quit()# 显示截图src = cv.imread(filename='info.png')src = cv.resize(src, None, fx=0.7, fy=0.7)cv.imshow('result', src)cv.waitKey(0)if __name__ == '__main__':nums = input('请输入您的单号:')print('\n')get_screenshot_and_info()

运行效果如下:

2. requests爬虫实现查询

"""
@Author  :叶庭云
@Date    :2020/9/18 15:01
@CSDN   :https://blog.csdn.net/fyfugoyfa
"""
import requests
import jsondef query_info(i, j):headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24',"Referer": "https://www.kuaidi100.com/"}url = f'https://www.kuaidi100.com/query?type={j}&postid={i}&temp=0.53162373256954096&phone='resp = requests.get(url, headers=headers)# print(resp.text)datas = json.loads(resp.text)['data']# print(datas)print('您的快递物流信息查询结果如下:\n')for item in datas:time_ = item['time']info = item['context']print(f'时间:{time_}')print(f'物流状态:{info}' + '\n')if __name__ == '__main__':delivery_dic = {'圆通': 'yuantong', '申通': 'shentong', '中通': 'zhongtong', '百世快递': 'huitongkuaidi','韵达': 'yunda', '顺丰': 'shunfeng', '天天快递': 'tiantian', '邮政': 'youzhengguonei','EMS': 'ems', '京东': 'jd', '德邦快递': 'debangwuliu', '极兔快递': 'jtexpress'}post_id = input('请输入你要查询物流的快递单号:')delivery = input('请输入快递公司:')query_info(post_id, delivery_dic[delivery])

运行结果如下:

requests爬虫查询速度较快,但需要输入快递公司,便于构造接口url来请求查询。

利用Python爬虫实现物流快递信息查询,简单易学相关推荐

  1. 利用python爬虫爬取斗鱼图片(简单详细)

    关于 在一个安静的夜晚,我缓慢的打开了电脑,望着已经睡着的父母,我轻轻的把门关上,看着斗鱼颜值主播的魅力,我不尽感叹,要是每天都可以不需要那么麻烦的去看那该有多好! 于是我想起了最近刚学的爬虫,嘴角露 ...

  2. python爬虫怎么赚钱-个人利用Python爬虫技术怎么挣钱-10万被动收入...

    我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...

  3. python爬虫赚钱的经历-个人利用Python爬虫技术怎么挣钱-10万被动收入

    我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...

  4. 02-分享:个人利用 Python 爬虫技术怎么挣钱-1万被动收入

    你好,我是悦创. 今天我来分享一篇,猿人学的文章.原文链接:https://www.yuanrenxue.com/crawler/earn-money-python-crawler.html 我利用 ...

  5. python爬虫怎么赚钱-个人利用Python爬虫技术怎么挣钱-10万被动收入

    我利用Python爬虫技术年挣10万被动收入的方式,在正式聊Python爬虫技术之前,先来说说挣钱的事,说说作为一个自由职业或兼职者怎么利用爬虫来挣钱. 个人爬虫挣钱方法大致如下 爬虫技术挣钱方法1: ...

  6. 手把手教你利用 python 爬虫分析基金、股票

    手把手教你利用 python 爬虫分析基金.股票 文章目录 手把手教你利用 python 爬虫分析基金.股票 第一步:基金数据爬取 第二步:股票增持计算 第三步:好股基金选取 桌面程序 exe 从前大 ...

  7. 利用python爬虫与数据分析,打造最强玩法,轻松成为大神级玩家!

    前言: 最近迷上了一款游戏,但是作为一名程序员的我是不可能只玩游戏的,我必须把它的官网数据采集下来! 环境: windows python3.6.5 模块: requests jsonpath pyg ...

  8. 四小时学python爬虫爬取信息系列(第一天)

    四小时学python爬虫爬取信息系列(第一天)(全是干货) 1.安装requests库(可以在电脑python,我是进入anaconda我建的虚拟环境) anaconda虚拟环境法流程: conda ...

  9. 【爬虫】利用Python爬虫爬取小麦苗itpub博客的所有文章的连接地址并写入Excel中(2)...

    [爬虫]利用Python爬虫爬取小麦苗itpub博客的所有文章的连接地址并写入Excel中(2) 第一篇( http://blog.itpub.net/26736162/viewspace-22865 ...

最新文章

  1. 平均 14926 元!2021 年 5 月程序员工资统计出炉
  2. linux 简介各发行版
  3. mysql查询优化技巧
  4. C语言 *n++和(*n)++的区别
  5. 【数据结构】线性表(一):顺序列表
  6. linux下的malloc申请的是虚拟还是物理的,关于malloc申请内存
  7. 制作GHOST XP 基于自由天空驱动包+SysPacker 2.1
  8. dsp广告和信息流广告区别_信息流广告和sem广告有哪些区别2021?
  9. numpy教程:基本输入输出和文件输入输出Input and output
  10. android10设置led指示灯,Android8.0在Setting中添加Led指示灯闪烁开关
  11. shell unexpected operator
  12. Neo4j之下载安装:windows
  13. 【观察】揭秘宏杉科技存储自主创新“登顶”之路
  14. PPT使用技巧——绘制圆角曲线
  15. qgridlayout 滚动时固定第一行_滚动轴承组合设计应考虑的问题
  16. latex怎么看论文字数_如何确定latex文档字数
  17. 微信隐藏功能:微信怎么群发消息给好友不建群?
  18. MATLAB之微分方程求解(十一)
  19. 该网页无法正常运作解决方法
  20. CSS基础:margin在行内元素及行级块元素失效两个元素之间margin重叠

热门文章

  1. FOURCC四字符码对照表
  2. bzoj4407 于神之怒加强版(莫比乌斯反演+线性筛)
  3. android 格式工厂,格式工厂app下载-格式工厂app安卓版下载[辅助工具]-华军软件园...
  4. 2022百度收录批量自动推送助手
  5. 终于有人把数据挖掘讲明白了
  6. iphone13配什么蓝牙耳机最好?最适合苹果手机的蓝牙耳机推荐
  7. 万字长文剖析架构设计全攻略(上)
  8. AIX smit设置设置能够输入中文
  9. JS算法:广度优先搜索(BSF)的理解
  10. 内容创作者的春天—web3.0时代