#coding:utf-8

import re,os,urllib,string

def getHtml(url):

page = urllib.urlopen(url)

html = page.read()

return html

def getData(html):

cartridge = r'Black Print Cartridge  (.+?%)'

car = re.compile(cartridge)

Cartridge = re.findall(car,html)

rekit = r'Maintenance Kit  (.+?%)'

kit = re.compile(rekit)

Kit = re.findall(kit,html)

print "Cartridge=%s" % Cartridge,

print "Kit=%s" % Kit

def getData_TFNRCPRT02(html):

cartridge = r'  (.+?%)'

car = re.compile(cartridge)

Cartridge = re.findall(car,html)

print "Cartridge=%s" % Cartridge

def IpStatus(ip):

Status = os.system("ping" + " " + ip)

return Status

def getIp(url):

getIp = r'http://(.+?)/'

GetIp = re.compile(getIp)

IpAddress = re.findall(GetIp,url)

ip = ''.join(IpAddress)

return ip

UrlDir = {

'http://10.132.160.171/hp/device/this.LCDispatcher' : 'LegalPrt04',

'http://10.132.160.172/hp/device/this.LCDispatcher' : 'LegalPrt05',

'http://10.153.24.177/hp/device/this.LCDispatcher'  : 'SzPrt11'   ,

'http://10.153.24.172/hp/device/this.LCDispatcher'  : 'SzPrt13'   ,

'http://10.153.26.179/hp/device/this.LCDispatcher'  : 'SzPrt14'   ,

'http://10.186.65.156/hp/device/this.LCDispatcher'  : 'TfnrcPrt01',

'http://10.186.65.101/' : 'TfnrcPrt3390',

'http://10.153.25.200/' : 'SzPrt16'

}

for url in UrlDir:

ip = getIp(url)

Status = IpStatus(ip)

if Status == 0:

if url == 'http://10.186.65.101/':

html = getHtml(url)

print UrlDir[url]+":",

getData_TFNRCPRT02(html)

elif url == 'http://10.153.25.200/':

print "SZPRT16 is OK"

else:

html = getHtml(url)

print UrlDir[url]+":",

getData(html)

else:

print UrlDir[url] + ":"+"Ping fail"

python linux 打印机,Python抓取打印机硒鼓和组件剩余量的爬虫相关推荐

  1. Python抓取打印机硒鼓和组件剩余量的爬虫

    #coding:utf-8 import re,os,urllib,string def getHtml(url): page = urllib.urlopen(url) html = page.re ...

  2. python编写微信自动抓取文件经历

    python编写微信自动抓取文件经历 背景 前期 写代码&坑 背景 近期疫情肆虐,老师全都线上教学,微信群里多出来一大堆乱七八糟的文件,烦死宝宝了,每次还要看,要是doc还得转换成pdf再放进 ...

  3. jupyter分割代码块_科研分享—Python根据关键词自动抓取Pubmed文献标题(附全部代码)文末有福利...

    写在前面:接触Python应该是8月初的一篇公众号文章,大致内容是使用py爬取数据库并汇总到本地.正好手头需要对某个领域的文献进行调研,不妨学习一下. 什么是Python? 百度说:Python (计 ...

  4. python实现人脸识别抓取人脸并做成熊猫头表情包(2)之优化

    上次做完python实现人脸识别抓取人脸并做成熊猫头表情包之后就放了一下,因为还要好好学习Springboot毕竟这才是找工作的硬实力.但是优化这个代码心里面一直很想,借用<clean code ...

  5. python beautifulsoup抓取网页内容_利用Python和Beautiful Soup抓取网页内容

    利用Python和Beautiful Soup抓取网页内容 Posted on 2012-08-09 00:08 SamWei 阅读(381) 评论(1) 编辑 收藏 Python 3中提供了url打 ...

  6. Python利用bs4批量抓取网页图片并下载保存至本地

    Python利用bs4批量抓取网页图片并下载保存至本地 使用bs4抓取网页图片,bs4解析比较简单,需要预先了解一些html知识,bs4的逻辑简单,编写难度较低.本例以抓取某壁纸网站中的壁纸为例.(b ...

  7. python将视频像素抓取替换导出mosaic效果的文本视频

    python将视频像素抓取替换导出mosaic效果的文本视频 第一次写博客,关于python的. 全网关于这种视频的的合成代码几乎没有,所以我提供了一套这样的思路. 完成过程很痛苦.因为全网类似的太少 ...

  8. 用python通过selenium自动化测试抓取天猫店铺数据

    用python通过selenium自动化测试抓取天猫店铺数据 运行的环境在win10,软件用的是vscode.大家平常在抓取天猫店铺的时候登陆后会需要验证,我的方法是通过谷歌插件跳过天猫的登陆. 首先 ...

  9. Python进阶之Scrapy抓取苏宁图书数据

    Python进阶之Scrapy抓取苏宁图书数据 1. 需求 2. 代码示例: 创建项目 start.py settings.py iterms.py snb.py pipelines.py 3. 注意 ...

  10. linux命令行抓取网页快照-(xvfb+CutyCapt)

    linux命令行抓取网页快照-(xvfb+CutyCapt) 又一个 WordPress 博客 Browse: Home / 2009 / 十一月 / linux命令行抓取网页快照-(xvfb+Cut ...

最新文章

  1. Tungsten Fabric SDN — 网络协议
  2. shellinabox的安装使用
  3. mysql查看数据库命令
  4. PHP从远程mysql下载文件_PHP下载远程文件到指定目录
  5. python列表中随机两个_随机化两个列表并在python中维护顺序
  6. Dojo实现Tabs页报错(二)
  7. python简单爬虫入门一_Python爬虫快速入门:基本结构简单实例
  8. SQL注入漏洞入门(操作实现)
  9. zabbix批量操作
  10. 10个Android开发必看的GitHub开源项目
  11. OpenCL快速入门
  12. CPU .......TensorFlow binary was not compiled to use: AVX AVX2
  13. 虎胆熊威2中文版体验
  14. 钣金展开更自由了? SOLIDWORKS 2022 新功能
  15. cocos2d-x 菜鸟学习笔记一(跨平台编译)
  16. 敏涵·精致遮暇乳打造“新国妆”专场 致力新锐品牌强势“出圈”
  17. 聊一聊DNS劫持那些事
  18. 电路专用计算机,基于AD977A的专用计算机数据采集电路的设计实现
  19. python字符串描述错误的是_以下选项中,关于Python,字符串的描述错误的是
  20. SystemUI中的PowerUI简析

热门文章

  1. 2021-10-18
  2. 苹果激活锁功能降低iPhone盗窃案发案率
  3. java添加缓存_实现 Java 本地缓存的方法解析
  4. vmware服务器虚拟机重新安装系统教程,在VMware虚拟机装系统教程_vmware装系统_U盘工具_装系统教程_课课家...
  5. 招银网络Java后端笔试题
  6. linux设备驱动程序之时钟管理
  7. 【C#】通过Devcon.exe控制设备管理器中设备的启停
  8. iis在xp3上的部署
  9. xp3+vs2010+opencv2.4.4配置说明
  10. [小O地图-图表] - 制作全国行政区图表