python爬虫从入门到放弃-python爬虫从入门到放弃(八)之 Selenium库的使用
一、什么是Selenium
selenium 是一套完整的web应用程序测试系统,包含了测试的录制(selenium IDE),编写及运行(Selenium Remote Control)和测试的并行处理(Selenium Grid)。Selenium的核心Selenium Core基于JsUnit,完全由JavaScript编写,因此可以用于任何支持JavaScript的浏览器上。
selenium可以模拟真实浏览器,自动化测试工具,支持多种浏览器,爬虫中主要用来解决JavaScript渲染问题。
二、selenium基本使用
用python写爬虫的时候,主要用的是selenium的Webdriver,我们可以通过下面的方式先看看Selenium.Webdriver支持哪些浏览器
执行结果如下,从结果中我们也可以看出基本山支持了常见的所有浏览器:
这里要说一下比较重要的PhantomJS,PhantomJS是一个而基于WebKit的服务端JavaScript API,支持Web而不需要浏览器支持,其快速、原生支持各种Web标准:Dom处理,CSS选择器,JSON等等。PhantomJS可以用用于页面自动化、网络监测、网页截屏,以及无界面测试
声明浏览器对象
上面我们知道了selenium支持很多的浏览器,但是如果想要声明并调用浏览器则需要:
from selenium importwebdriver
browser=webdriver.Chrome()
browser= webdriver.Firefox()
这里只写了两个例子,当然了其他的支持的浏览器都可以通过这种方式调用
访问页面
from selenium importwebdriver
browser=webdriver.Chrome()
browser.get("http://www.baidu.com")print(browser.page_source)
browser.close()
上述代码运行后,会自动打开Chrome浏览器,并登陆百度打印百度首页的源代码,然后关闭浏览器
查找元素
单个元素查找
from selenium importwebdriver
browser=webdriver.Chrome()
browser.get("http://www.taobao.com")
input_first= browser.find_element_by_id("q")
input_second= browser.find_element_by_css_selector("#q")
input_third= browser.find_element_by_xpath('//*[@id="q"]')print(input_first)print(input_second)print(input_third)
browser.close()
这里我们通过三种不同的方式去获取响应的元素,第一种是通过id的方式,第二个中是CSS选择器,第三种是xpath选择器,结果都是相同的。
结果如下:
这里列举一下常用的查找元素方法:
find_element_by_name
find_element_by_id
find_element_by_xpath
find_element_by_link_text
find_element_by_partial_link_text
find_element_by_tag_name
find_element_by_class_name
find_element_by_css_selector
下面这种方式是比较通用的一种方式:这里需要记住By模块所以需要导入
from selenium.webdriver.common.by import By
from selenium importwebdriverfrom selenium.webdriver.common.by importBy
browser=webdriver.Chrome()
browser.get("http://www.taobao.com")
input_first= browser.find_element(By.ID,"q")print(input_first)
browser.close()
当然这种方法和上述的方式是通用的,browser.find_element(By.ID,"q")这里By.ID中的ID可以替换为其他几个
多个元素查找
其实多个元素和单个元素的区别,举个例子:find_elements,单个元素是find_element,其他使用上没什么区别,通过其中的一个例子演示:
from selenium importwebdriver
browser=webdriver.Chrome()
browser.get("http://www.taobao.com")
lis= browser.find_elements_by_css_selector('.service-bd li')print(lis)
browser.close()
这样获得就是一个列表
当然上面的方式也是可以通过导入from selenium.webdriver.common.by import By 这种方式实现
lis = browser.find_elements(By.CSS_SELECTOR,'.service-bd li')
同样的在单个元素中查找的方法在多个元素查找中同样存在:
find_elements_by_name
find_elements_by_id
find_elements_by_xpath
find_elements_by_link_text
find_elements_by_partial_link_text
find_elements_by_tag_name
find_elements_by_class_name
find_elements_by_css_selector
元素交互操作
对于获取的元素调用交互方法
from selenium importwebdriverimporttime
browser=webdriver.Chrome()
browser.get("http://www.taobao.com")
input_str= browser.find_element_by_id('q')
input_str.send_keys("ipad")
time.sleep(1)
input_str.clear()
input_str.send_keys("MakBook pro")
button= browser.find_element_by_class_name('btn-search')
button.click()
运行的结果可以看出程序会自动打开Chrome浏览器并打开淘宝输入ipad,然后删除,重新输入MakBook pro,并点击搜索
交互动作
将动作附加到动作链中串行执行
from selenium importwebdriverfrom selenium.webdriver importActionChains
browser=webdriver.Chrome()
url= "http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable"browser.get(url)
browser.switch_to.frame('iframeResult')
source= browser.find_element_by_css_selector('#draggable')
target= browser.find_element_by_css_selector('#droppable')
actions=ActionChains(browser)
actions.drag_and_drop(source, target)
actions.perform()
执行JavaScript
这是一个非常有用的方法,这里就可以直接调用js方法来实现一些操作,
下面的例子是通过登录知乎然后通过js翻到页面底部,并弹框提示
from selenium importwebdriver
browser=webdriver.Chrome()
browser.get("http://www.zhihu.com/explore")
browser.execute_script('window.scrollTo(0, document.body.scrollHeight)')
browser.execute_script('alert("To Bottom")')
获取元素属性
get_attribute('class')
from selenium importwebdriver
browser=webdriver.Chrome()
url= 'https://www.zhihu.com/explore'browser.get(url)
logo= browser.find_element_by_id('zh-top-link-logo')print(logo)print(logo.get_attribute('class'))
获取文本值
text
from selenium importwebdriver
browser=webdriver.Chrome()
url= 'https://www.zhihu.com/explore'browser.get(url)
input= browser.find_element_by_class_name('zu-top-add-question')print(input.text)
获取ID,位置,标签名
id
location
tag_name
size
from selenium importwebdriver
browser=webdriver.Chrome()
url= 'https://www.zhihu.com/explore'browser.get(url)
input= browser.find_element_by_class_name('zu-top-add-question')print(input.id)print(input.location)print(input.tag_name)print(input.size)
Frame
在很多网页中都是有Frame标签,所以我们爬取数据的时候就涉及到切入到frame中以及切出来的问题,通过下面的例子演示
这里常用的是switch_to.from()和switch_to.parent_frame()
importtimefrom selenium importwebdriverfrom selenium.common.exceptions importNoSuchElementException
browser=webdriver.Chrome()
url= 'http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable'browser.get(url)
browser.switch_to.frame('iframeResult')
source= browser.find_element_by_css_selector('#draggable')print(source)try:
logo= browser.find_element_by_class_name('logo')exceptNoSuchElementException:print('NO LOGO')
browser.switch_to.parent_frame()
logo= browser.find_element_by_class_name('logo')print(logo)print(logo.text)
等待
当使用了隐式等待执行测试的时候,如果 WebDriver没有在 DOM中找到元素,将继续等待,超出设定时间后则抛出找不到元素的异常, 换句话说,当查找元素或元素并没有立即出现的时候,隐式等待将等待一段时间再查找 DOM,默认的时间是0
隐式等待
到了一定的时间发现元素还没有加载,则继续等待我们指定的时间,如果超过了我们指定的时间还没有加载就会抛出异常,如果没有需要等待的时候就已经加载完毕就会立即执行
from selenium importwebdriver
browser=webdriver.Chrome()
browser.implicitly_wait(10)
browser.get('https://www.zhihu.com/explore')
input= browser.find_element_by_class_name('zu-top-add-question')print(input)
显示等待
指定一个等待条件,并且指定一个最长等待时间,会在这个时间内进行判断是否满足等待条件,如果成立就会立即返回,如果不成立,就会一直等待,直到等待你指定的最长等待时间,如果还是不满足,就会抛出异常,如果满足了就会正常返回
from selenium importwebdriverfrom selenium.webdriver.common.by importByfrom selenium.webdriver.support.ui importWebDriverWaitfrom selenium.webdriver.support importexpected_conditions as EC
browser=webdriver.Chrome()
browser.get('https://www.taobao.com/')
wait= WebDriverWait(browser, 10)
input= wait.until(EC.presence_of_element_located((By.ID, 'q')))
button= wait.until(EC.element_to_be_clickable((By.CSS_SELECTOR, '.btn-search')))print(input, button)
上述的例子中的条件:EC.presence_of_element_located()是确认元素是否已经出现了
EC.element_to_be_clickable()是确认元素是否是可点击的
常用的判断条件:
title_is 标题是某内容
title_contains 标题包含某内容
presence_of_element_located 元素加载出,传入定位元组,如(By.ID, 'p')
visibility_of_element_located 元素可见,传入定位元组
visibility_of 可见,传入元素对象
presence_of_all_elements_located 所有元素加载出
text_to_be_present_in_element 某个元素文本包含某文字
text_to_be_present_in_element_value 某个元素值包含某文字
frame_to_be_available_and_switch_to_it frame加载并切换
invisibility_of_element_located 元素不可见
element_to_be_clickable 元素可点击
staleness_of 判断一个元素是否仍在DOM,可判断页面是否已经刷新
element_to_be_selected 元素可选择,传元素对象
element_located_to_be_selected 元素可选择,传入定位元组
element_selection_state_to_be 传入元素对象以及状态,相等返回True,否则返回False
element_located_selection_state_to_be 传入定位元组以及状态,相等返回True,否则返回False
alert_is_present 是否出现Alert
浏览器的前进和后退
back()
forward()
importtimefrom selenium importwebdriver
browser=webdriver.Chrome()
browser.get('https://www.baidu.com/')
browser.get('https://www.taobao.com/')
browser.get('https://www.python.org/')
browser.back()
time.sleep(1)
browser.forward()
browser.close()
cookie操作
get_cookies()
delete_all_cookes()
add_cookie()
from selenium importwebdriver
browser=webdriver.Chrome()
browser.get('https://www.zhihu.com/explore')print(browser.get_cookies())
browser.add_cookie({'name': 'name', 'domain': 'www.zhihu.com', 'value': 'zhaofan'})print(browser.get_cookies())
browser.delete_all_cookies()print(browser.get_cookies())
选项卡管理
通过执行js命令实现新开选项卡window.open()
不同的选项卡是存在列表里browser.window_handles
通过browser.window_handles[0]就可以操作第一个选项卡
importtimefrom selenium importwebdriver
browser=webdriver.Chrome()
browser.get('https://www.baidu.com')
browser.execute_script('window.open()')print(browser.window_handles)
browser.switch_to_window(browser.window_handles[1])
browser.get('https://www.taobao.com')
time.sleep(1)
browser.switch_to_window(browser.window_handles[0])
browser.get('https://python.org')
异常处理
from selenium importwebdriverfrom selenium.common.exceptions importTimeoutException, NoSuchElementException
browser=webdriver.Chrome()try:
browser.get('https://www.baidu.com')exceptTimeoutException:print('Time Out')try:
browser.find_element_by_id('hello')exceptNoSuchElementException:print('No Element')finally:
browser.close()
python爬虫从入门到放弃-python爬虫从入门到放弃(八)之 Selenium库的使用相关推荐
- python爬虫从入门到精通-Python爬虫从入门到精通视频(2018新版)
原标题:Python爬虫从入门到精通视频(2018新版) Python在软件质量控制.提升开发效率.可移植性.组件集成.丰富库支持等各个方面均处于先进地位,并且随着人工智能的兴起,Python发展得越 ...
- python爬虫从入门到精通-Python网络爬虫开发从入门到精通
本书共分 3 篇,针对 Python 爬虫初学者,从零开始,系统地讲解了如何利用 Python 进行常见的网络爬虫的程序开发. 第 1 篇快速入门篇(第 1 章 ~ 第 9 章):本篇主要介绍了 Py ...
- Python3网络爬虫快速入门实战解析(一小时入门 Python 3 网络爬虫)
Python3网络爬虫快速入门实战解析(一小时入门 Python 3 网络爬虫) https://blog.csdn.net/u012662731/article/details/78537432 出 ...
- python爬取网页数据软件_python爬虫入门10分钟爬取一个网站
一.基础入门 1.1什么是爬虫 爬虫(spider,又网络爬虫),是指向网站/网络发起请求,获取资源后分析并提取有用数据的程序. 从技术层面来说就是 通过程序模拟浏览器请求站点的行为,把站点返回的HT ...
- python爬虫入门心得体会,python爬虫入门和实例
爬虫不外乎是为了获取网络上的信息,要取得信息,你就得给给服务器发请求,然后服务器把信息发给你,这一步一般较为简单.服务器发给你的一般是一个html文件,拿到文件后,你可能会觉得这是什么乱七八糟的东西, ...
- python网络爬虫开发从入门到精通_Python突击-从入门到精通到项目实战
原标题:Python突击-从入门到精通到项目实战 python语言近年来越来越被程序相关人员喜欢和使用,因为其不仅简单容易学习和掌握,而且还有丰富的第三方程序库和相应完善的管理工具:从命令行脚本程序到 ...
- Python爬虫基础:常用HTML标签和Javascript入门
1 HTML基础 大部分HTML标签是闭合的,由开始标签和结束标签构成,二者之间是要显示的内容,例如:<title>网页标题</title>.也有的HTML标签是没有结束标签 ...
- 35岁学python爬虫_35岁码农的机器学习入门之路-python篇
35岁码农,苦逼的80后,岌岌可危的尴尬年纪,何以解忧,唯有学习,对了,要跟上潮流:机器学习. 本篇所提入门之路,适合大学没学好数学,毕业后数学已忘光,工作多年想半路出家的人,仅供参考. 学习动机提升 ...
- python爬虫教程-Python教父|廖雪峰老师官方爬虫教程,13个案例带你全面入门!
原标题:Python教父|廖雪峰老师官方爬虫教程,13个案例带你全面入门! Python简直就是万能的,你用Python都做过哪些事? 用网页看各大网站的VIP视频,用python下载? 用Pytho ...
- python爬虫实例手机_10个python爬虫入门实例
昨天带伙伴萌学习python爬虫,准备了几个简单的入门实例 涉及主要知识点: web是如何交互的 requests库的get.post函数的应用 response对象的相关函数,属性 python文件 ...
最新文章
- linux 发行版 suse opensuse 区别
- 2019区块链行业指南
- php中的var_dump()方法的详细说明
- 品牌保量技术在阿里妈妈外投场景的应用
- vue 实现 js css html分离
- 信号扫描_微观世界扫描电子显微镜(SEM)
- 并发容器(J.U.C)中的队列类
- Java案例:接口的静态方法
- python多线程提高速度_Python3如何使用多线程升程序运行速度
- Windows下安装python的scipy等科学计算包(转)
- oracle数据库应用中实现汉字“同音”查询(转)
- talentcentral测评结果_校招的时候性格测试直接跪了,到底是怎么个机制?
- linux查看磁带大小命令,16条实用的Linux/Unix 磁带管理命令
- 高通手机 进入 高通9008模式
- 常见的加密算法原理与实现:MD5加密
- hdu(杭电oj)第一页题目题解
- (二)openssl完成服务器证书签发
- Android开发之UI线程和非UI线程
- 使用OmicShare Tools做权重网络图
- AP考试取消,AP课程学生如何申请英国大学?
热门文章
- 剑指offer面试题14- I. 剪绳子(数学推导)
- 深度学习中端到端的理解
- Jupyter Notebooks的安装和使用介绍
- 高级软件工程第六次作业:东理三剑客团队作业-3
- Python 解leetcode:728. Self Dividing Numbers
- 【探路者】第五周立会报告1(总第27次)
- Vue源码后记-vFor列表渲染(3)
- 练习:查找指定目录(包括子目录)下的视频(格式为.mp4,.rmvb,.avi),并将目录存放在一个文件中...
- 基于SURF特征的目标检测
- cpu相关信息(进程、线程、核...)