python 爬取网页内容 snmp_python通过SNMP协议收集服务器监控信息
安装snmp和启用python模块
[root@test ~]# wget http://nchc.dl.sourceforge.net/project/net-snmp/net-snmp/5.7.3/net-snmp-5.7.3.tar.gz
[root@test ~]# tar xf net-snmp-5.7.3.tar.gz
[root@test ~]# cd net-snmp-5.7.3
[root@test ~]# ./configure --prefix=/usr/local/net-snmp --with-python-modules --with-persistent-directory=/usr/local/net-snmp
[root@test ~]# make
[root@test ~]# make install
[root@test ~]# echo '/usr/local/net-snmp/lib/' >> /etc/ld.so.conf.d/server.conf
[root@test ~]# ldconfig
[root@test ~]# echo 'export PATH=/usr/local/net-snmp/sbin/:${PATH}' >> /etc/profile
[root@test ~]# echo 'export PATH=/usr/local/net-snmp/bin/:${PATH}' >> /etc/profile
[root@test ~]# source /etc/profile
[root@test ~]# cd python
[root@test ~]# python setup.py install
[root@test ~]# cp -r netsnmp /usr/local/python/lib/python2.7/site-packages/
[root@test ~]# cp build/lib.linux-x86_64-2.7/netsnmp/client_intf.so /usr/local/python/lib/python2.7/site-packages/netsnmp/
配置snmp
[root@test ~]# net-snmp-config --create-snmpv3-user -ro -a password -x DES -X passworddes snmpuser
[root@test ~]# snmpd
snmpuser:用户名
password:密码,密码必须大于8个字符
DES:加密方式,这边支持AES、DES两种
passworddes:DES口令,必须大于8位
测试
[root@test ~]# snmpwalk -v 3 -u snmpuser -a MD5 -A password -l authPriv -x DES -X passworddes 127.0.0.1
[root@test ~]# snmpwalk -v 3 -u snmpuser -a MD5 -A password -l authPriv -x DES -X passworddes 127.0.0.1 .1.3.6.1.4.1.2021.10.1.3.1
[root@test ~]# snmpwalk -v 3 -u snmpuser -a MD5 -A password -l authPriv -x DES -X passworddes 127.0.0.1 .1.3.6.1.4.1.2021.4.11.0
[root@test ~]# snmpwalk -v 3 -u snmpuser -a MD5 -A password -l authPriv -x DES -X passworddes 127.0.0.1 sysName
python测试脚本test.py
#!/usr/bin/env python
#cofing:utf-8
import netsnmp
print "---v3 setup-------------------------------------\n"
sess = netsnmp.Session(Version=3,
DestHost='localhost',
SecLevel='authPriv',
SecName='snmpuser',
PrivPass='passworddes',
AuthPass='password')
sess.UseSprintValue = 1
vars = netsnmp.VarList(netsnmp.Varbind('sysUpTime', 0),
netsnmp.Varbind('sysContact', 0),
netsnmp.Varbind('sysLocation', 0))
print "---v3 get-------------------------------------\n"
vals = sess.get(vars)
print "v3 sess.get result: ", vals, "\n"
for var in vars:
print var.tag, var.iid, "=", var.val, '(',var.type,')'
print "\n"
print "---v3 getnext-------------------------------------\n"
vals = sess.getnext(vars)
print "v3 sess.getnext result: ", vals, "\n"
for var in vars:
print var.tag, var.iid, "=", var.val, '(',var.type,')'
print "\n"
vars = netsnmp.VarList(netsnmp.Varbind('sysUpTime'),
netsnmp.Varbind('sysORLastChange'),
netsnmp.Varbind('sysORID'),
netsnmp.Varbind('sysORDescr'),
netsnmp.Varbind('sysORUpTime'))
vals = sess.getbulk(2, 8, vars)
print "v3 sess.getbulk result: ", vals, "\n"
for var in vars:
print var.tag, var.iid, "=", var.val, '(',var.type,')'
print "\n"
print "---v3 set-------------------------------------\n"
vars = netsnmp.VarList(
netsnmp.Varbind('sysLocation','0', 'my final destination'))
res = sess.set(vars)
print "v3 sess.set result: ", res, "\n"
print "---v3 walk-------------------------------------\n"
vars = netsnmp.VarList(netsnmp.Varbind('system'))
vals = sess.walk(vars)
print "v3 sess.walk result: ", vals, "\n"
for var in vars:
print " ",var.tag, var.iid, "=", var.val, '(',var.type,')'
参考链接:https://blog.csdn.net/mirahs/java/article/details/49619729
python 爬取网页内容 snmp_python通过SNMP协议收集服务器监控信息相关推荐
- python通过SNMP协议收集服务器监控信息(安装、配置、示例)
安装snmp和启用python模块 [root@test ~]# wget http://nchc.dl.sourceforge.net/project/net-snmp/net-snmp/5.7.3 ...
- 在当当买了python怎么下载源代码-Python爬取当当、京东、亚马逊图书信息代码实例...
注:1.本程序采用MSSQLserver数据库存储,请运行程序前手动修改程序开头处的数据库链接信息 2.需要bs4.requests.pymssql库支持 3.支持多线程 from bs4 impor ...
- python 下载网页文件_『如何用python把网页上的文本内容保存下来』python爬取网页内容教程...
python爬虫:如何爬网页数据并将其放在文本 用requests库 r=r.requests.get(url) r.concent 保存到文件里就行了 如何用python把网页上的文本内容保存下来 ...
- python爬取网页内容_Python爬虫原理解析
笔者公众号:技术杂学铺 笔者网站:mwhitelab.com 本文将从何为爬虫.网页结构.python代码实现等方面逐步解析网络爬虫. 1. 何为爬虫 如今互联网上存储着大量的信息. 作为普通网民,我 ...
- python爬取网页内容requests_[转][实战演练]python3使用requests模块爬取页面内容
本文摘要: 1.安装pip 2.安装requests模块 3.安装beautifulsoup4 4.requests模块浅析 + 发送请求 + 传递URL参数 + 响应内容 + 获取网页编码 + 获取 ...
- python爬取网页内容post_python爬虫之使用POST抓取网页内容
首先先向小伙伴介绍一下HTTP中GET和POST 教小伙伴们写爬虫,通过POST获取网页内容 使用POST的原因: GET是不安全的,因为在传输过程,数据被放在请求的URL中,而如今现有的很多服务器. ...
- Python 爬取懂车帝详情页“全部车型模块信息”!懂车帝就火起来了吗?
需要爬取的内容:汽车具体型号,指导价,经销商报价,车主参考价 import requests import pymysql # 车型库 def Dongchedi(offset): url = 'ht ...
- python 爬取懂车帝详情页“全部车型模块信息”
需要爬取的内容:汽车具体型号,指导价,经销商报价,车主参考价 import requests import pymysql# 车型库 def Dongchedi(offset):url = 'http ...
- Python爬取当当、京东、亚马逊图书信息
注:1.本程序采用MS SQL server数据库存储,请运行程序前手动修改程序开头处的数据库链接信息 2.需要bs4.requests.pymssql库支持 3.支持多线程 from bs4 imp ...
最新文章
- 卡尔曼滤波:究竟滤了谁?
- FreeRTOS 临界段和开关中断
- boost::statechart模块测量 BitMachine 的事件处理性能的测试程序
- 使用gluoncv.model_zoo进行目标检测
- 2013年东北赛B题(数位DP)
- xmind怎么在左边创建_个人怎么做微信小程序商城
- 数据拆分_数据拆分,偏方请拿好
- 【python】hashlib.shasha256练习注册 --笔记
- 好的可视化报告一目了然,丑的可视化报表一文不值
- 【专题报道】Google I/O开发者大会
- Opencv之斑点(Blob)检测--SimpleBlobDetector_create
- Python day 3 (3) 判断与循环
- python中循环语句有哪几种_Python的循环语句
- 第9章:多媒体基础知识
- nvivo服务器项目,【NVivo教程】用Nvivo为研究团队设立主项目
- 最全解读】各种金融机构的产品分析(银行、证券、基金、信托...)
- i58400升级可以换什么cpu_罗敏:老式碰锁可以换什么锁?老式门锁该如何
- 计算机电源怎么设置玩游戏不卡,端游绝地求生怎么设置不卡
- 2018年中国500强排行榜
- Charon的python数据可视化分析4(饼状图)
热门文章
- 大数据学习笔记38:Hive - 内置函数(1)
- 大数据学习笔记12:搭建伪分布式Spark
- 英语学习笔记2019-11-15
- 42 可写成成三个整数的立方和
- 7.边缘检测:2D运算——Canny的不同结果、单个2D边缘检测滤波器、实现边缘3种方法Matlab实战_3
- js html5是什么意思,javascript是什么意思
- php错误没有进入catch,php – 致命错误:没有try / catch块的未捕获异常
- php语言指针的初始化定义,指针变量的初始化,C语言指针变量初始化详解
- c++指定在某一线程运行_深入理解Java虚拟机-运行时数据区
- python控制流教程_Python入门教程之运算符与控制流