一、selenium对标签页切换、切换frame标签、cookie处理、执行js代码、开启无界面、以及使用代理ip和替换user-agent等方法

(一)、selenium标签页的切换

  • 当selenium控制浏览器打开多个标签页时,如何控制浏览器在不同的标签页中进行切换呢?需要我们做以下两步:
    ①、获取所有标签页的窗口句柄
    ②、利用窗口句柄字切换到句柄指向的标签页
  • 这里的窗口句柄是指:指向标签页对象的标识
  • 关于句柄请课后了解更多
  • 具体的方法
# 1. 获取当前所有的标签页的句柄构成的列表
current_windows = driver.window_handles# 2. 根据标签页句柄列表索引下标进行切换
driver.switch_to.window(current_windows[0])
  • 参考代码示例:
from selenium import webdriverurl = 'https://jn.58.com/'
driver = webdriver.Chrome()
driver.get(url)print(driver.current_url) # https://jn.58.com/
print(driver.window_handles)# 定位并点击租房按钮
el = driver.find_element_by_xpath('/html/body/div[3]/div[1]/div[1]/div/div[1]/div[1]/span[1]/a')
el.click()print(driver.current_url) # https://jn.58.com/
print(driver.window_handles)# 将控制权转为最后打开的标签页面
driver.switch_to.window(driver.window_handles[-1])el_list = driver.find_elements_by_xpath('/html/body/div[6]/div[2]/ul/li/div[2]/h2/a')for el in el_list:print(el.text) # 打印租房的标题

(二)、switch_to切换frame标签

iframe是html中常用的一种技术,即一个页面中嵌套了另一个网页,selenium默认是访问不了frame中的内容的,对应的解决思路是driver.switch_to.frame(frame_element)。接下来我们通过qq空间模拟登陆来学习这个知识点

  • 参考代码:
from selenium import webdriver
import timeurl = 'https://i.qq.com/'
driver = webdriver.Chrome()
driver.get(url)# 方案一:根据iframe框架的id切换iframe标签
# driver.switch_to_frame('login_frame')# 方案二:根据iframe框架的xpath路径切换iframe标签
el_frame = driver.find_element_by_xpath('//*[@id="login_frame"]')
driver.switch_to_frame(el_frame)driver.find_element_by_id('switcher_plogin').click()
driver.find_element_by_id('u').send_keys('qq账号')
driver.find_element_by_id('p').send_keys('qq密码')
driver.find_element_by_id('login_button').click()time.sleep(2) # 登录成功后,等待2s,随后打印标签页面的title
print(driver.title)
  • 总结:
    ①、切换到定位的frame标签嵌套的页面中driver.switch_to.frame(通过find_element_by函数定位的frame、iframe标签对象)
    ②、利用切换标签页的方式切出frame标签
windows = driver.window_handles
driver.switch_to.window(windows[0])

(三)、selenium对cookie的处理

selenium能够帮助我们处理页面中的cookie,比如获取、删除

3.1 获取cookie

driver.get_cookies()返回列表,其中包含的是完整的cookie信息!不光有name、value,还有domain等cookie其他维度的信息。所以如果想要把获取的cookie信息和requests模块配合使用的话,需要转换为name、value作为键值对的cookie字典

# 获取当前标签页的全部cookie信息
print(driver.get_cookies())
# 把cookie转化为字典
cookies_dict = {cookie[‘name’]: cookie[‘value’] for cookie in driver.get_cookies()}
from selenium import webdriverurl = 'https://www.baidu.com'
driver = webdriver.Chrome()
driver.get(url)print(driver.get_cookies())# 把cookie转化为字典,方案一:
cookies = {data['name']: data['value']for data in driver.get_cookies()}# 把cookie转化为字典,方案二:
# cookies = {}
# for data in driver.get_cookies():
#     cookies[data['name']] = data['value']print(cookies)

3.2 删除cookie

#删除一条cookie
driver.delete_cookie("CookieName")# 删除所有的cookie
driver.delete_all_cookies()

(四)、selenium控制浏览器执行js代码

selenium可以让浏览器执行我们规定的js代码,运行下列代码查看运行效果

  • 我们进行对https://www.runoob.com/网站中的服务端中学习Python模块进行访问,如果不加js滚动到指定位置,控制台会返回会报错,显示没有找到类似的标签。
from selenium import webdriver
import timeurl='https://www.runoob.com/'
driver = webdriver.Chrome()
driver.get(url)# 滚动条的拖动
js = 'scrollTo(0,1000)'
# 执行js
driver.execute_script(js)time.sleep(3)el = driver.find_element_by_xpath('/html/body/div[4]/div/div[2]/div[3]/a[1]')
el.click()
  • 执行js的方法:driver.execute_script(js)

(五)、页面等待

页面在加载的过程中需要花费时间等待网站服务器的响应,在这个过程中标签元素有可能还没有加载出来,是不可见的,如何处理这种情况呢?

  1. 页面等待分类
  2. 强制等待介绍
  3. 显式等待介绍
  4. 隐式等待介绍
  5. 手动实现页面等待

5.1 页面等待的分类

首先我们就来了解以下selenium页面等待的分类

  1. 强制等待
  2. 隐式等待
  3. 显式等待

5.2 强制等待(了解)

  • 其实就是time.sleep()
  • 缺点时不智能,设置的时间太短,元素还没有加载出来;设置的时间太长,则会浪费时间

5.3 隐式等待

  • 隐式等待针对的是元素定位,隐式等待设置了一个时间,在一段时间内判断元素是否定位成功,如果完成了,就进行下一步
  • 在设置的时间内没有定位成功,则会报超时加载
  • 示例代码
from selenium import webdriverurl = 'https://www.baidu.com'
driver = webdriver.Chrome()
driver.get(url)# 设置位置之后的所有元素定位操作都有等待时间十秒,在10秒内会定期进行元素定位,超过设置时间之后将会报错
driver.implicitly_wait(10)el = driver.find_element_by_xpath('//*[@id="lg"]/img[10000]')
print(el)

5.4 显式等待(了解)

  • 每经过多少秒就查看一次等待条件是否达成,如果达成就停止等待,继续执行后续代码
  • 如果没有达成就继续等待直到超过规定的时间后,报超时异常
  • 示例代码
from selenium import webdriver
from selenium.webdriver.support.wait import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.common.by import By driver = webdriver.Chrome()driver.get('https://www.baidu.com')# 显式等待
WebDriverWait(driver, 20, 0.5).until(EC.presence_of_element_located((By.LINK_TEXT, '好123')))
# 参数20表示最长等待20秒
# 参数0.5表示0.5秒检查一次规定的标签是否存在
# EC.presence_of_element_located((By.LINK_TEXT, '好123')) 表示通过链接文本内容定位标签
# 每0.5秒一次检查,通过链接文本内容定位标签是否存在,如果存在就向下继续执行;如果不存在,直到20秒上限就抛出异常print(driver.find_element_by_link_text('好123').get_attribute('href'))
driver.quit()

5.5 手动实现页面等待

在了解了隐式等待和显式等待以及强制等待后,我们发现并没有一种通用的方法来解决页面等待的问题,比如“页面需要滑动才能触发ajax异步加载”的场景,那么接下来我们就以淘宝网首页为例,手动实现页面等待

  • 原理:
    ①、利用强制等待和显式等待的思路来手动实现
    ②、不停的判断或有次数限制的判断某一个标签对象是否加载完毕(是否存在)
  • 实现代码如下:
import time
from selenium import webdriver
driver = webdriver.Chrome('/home/worker/Desktop/driver/chromedriver')driver.get('https://www.taobao.com/')
time.sleep(1)# i = 0
# while True:
for i in range(10):i += 1try:time.sleep(3)element = driver.find_element_by_xpath('//div[@class="shop-inner"]/h3[1]/a')print(element.get_attribute('href'))breakexcept:js = 'window.scrollTo(0, {})'.format(i*500) # js语句driver.execute_script(js) # 执行js的方法
driver.quit()

(六)、selenium开启无界面模式

绝大多数服务器是没有界面的,selenium控制谷歌浏览器也是存在无界面模式的,接下来我们学习如何开启无界面模式(又称之为无头模式)

  • 开启无界面模式的方法
    ①、实例化配置对象:options = webdriver.ChromeOptions()
    ②、配置对象添加开启无界面模式的命令: options.add_argument("--headless")
    ③、配置对象添加禁用gpu的命令:options.add_argument("--disable-gpu")
    ④、实例化带有配置对象的driver对象:driver = webdriver.Chrome(chrome_options=options)
  • 注意:macos中chrome浏览器59+版本,Linux中57+版本才能使用无界面模式!
  • 参考代码如下:
from selenium import webdriveroptions = webdriver.ChromeOptions() # 创建一个配置对象
options.add_argument("--headless") # 开启无界面模式
options.add_argument("--disable-gpu") # 禁用gpu# options.set_headles() # 无界面模式的另外一种开启方式
driver = webdriver.Chrome(chrome_options=options) # 实例化带有配置的driver对象driver.get('http://www.itcast.cn')
print(driver.title)
driver.quit()

(七)、selenium使用代理ip

selenium控制浏览器也是可以使用代理ip的!

  • 使用代理ip的方法
  • 实例化配置对象options = webdriver.ChromeOptions()
  • 配置对象添加使用代理ip的命令options.add_argument('--proxy-server=http://202.20.16.82:9527')
  • 实例化带有配置对象的driver对象driver = webdriver.Chrome('./chromedriver', chrome_options=options)
  • 参考代码如下:
from selenium import webdriveroptions = webdriver.ChromeOptions() # 创建一个配置对象
# 更换IP代理,必须重新启动浏览器
options.add_argument('--proxy-server=http://202.20.16.82:9527') # 使用代理ipdriver = webdriver.Chrome(chrome_options=options) # 实例化带有配置的driver对象driver.get('http://www.itcast.cn')
print(driver.title)
driver.quit()

(八)、selenium替换user-agent

selenium控制谷歌浏览器时,User-Agent默认是谷歌浏览器的,这一小节我们就来学习使用不同的User-Agent

  • 替换user-agent的方法
  • 实例化配置对象options = webdriver.ChromeOptions()
  • 配置对象添加替换UA的命令options.add_argument('--user-agent=Mozilla/5.0 HAHA')
  • 实例化带有配置对象的driver对象driver = webdriver.Chrome('./chromedriver', chrome_options=options)
  • 参考代码如下:
from selenium import webdriveroptions = webdriver.ChromeOptions() # 创建一个配置对象
options.add_argument('--user-agent=Mozilla/5.0 HAHA') # 替换User-Agentdriver = webdriver.Chrome('./chromedriver', chrome_options=options)driver.get('http://www.itcast.cn')
print(driver.title)
driver.quit()

Python爬虫之selenium对标签页切换、切换frame标签、cookie处理、执行js代码、开启无界面、以及使用代理ip和替换user-agent等方法相关推荐

  1. 爬虫之selenium标签页的切换

    爬虫之selenium标签页的切换 当selenium控制浏览器打开多个标签页时,如何控制浏览器在不同的标签页中进行切换呢?需要我们做以下两步: 获取所有标签页的窗口句柄    [获取窗口句柄,通过窗 ...

  2. 目前记录♡最详细的一篇记录学习笔记 ---Python爬虫(18) selenium自动化安装和使用

    一. selenium自动化介绍 Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS ...

  3. python抓取文献关键信息,python爬虫——使用selenium爬取知网文献相关信息

    python爬虫--使用selenium爬取知网文献相关信息 写在前面: 本文章限于交流讨论,请不要使用文章的代码去攻击别人的服务器 如侵权联系作者删除 文中的错误已经修改过来了,谢谢各位爬友指出错误 ...

  4. Python爬虫之selenium库使用详解

    Python爬虫之selenium库使用详解 本章内容如下: 什么是Selenium selenium基本使用 声明浏览器对象 访问页面 查找元素 多个元素查找 元素交互操作 交互动作 执行JavaS ...

  5. python爬虫之selenium,谷歌无头浏览器

    python爬虫之selenium和PhantomJS 主要的内容 lenium hantomjs 无头浏览器 的懒加载 一 什么是selenium? 介绍 它是python中的一个第三方库,对外提供 ...

  6. Python爬虫之selenium高级功能

    Python爬虫之selenium高级功能 原文地址 表单操作 元素拖拽 页面切换 弹窗处理 表单操作 表单里面会有文本框.密码框.下拉框.登陆框等. 这些涉及与页面的交互,比如输入.删除.点击等. ...

  7. python 模拟浏览器selenium_浅谈python爬虫使用Selenium模拟浏览器行为

    前几天有位微信读者问我一个爬虫的问题,就是在爬去百度贴吧首页的热门动态下面的图片的时候,爬取的图片总是爬取不完整,比首页看到的少.原因他也大概分析了下,就是后面的图片是动态加载的.他的问题就是这部分动 ...

  8. [Python爬虫]使用Selenium操作浏览器订购火车票

    这个专题主要说的是Python在爬虫方面的应用,包括爬取和处理部分 [Python爬虫]使用Python爬取动态网页-腾讯动漫(Selenium) [Python爬虫]使用Python爬取静态网页-斗 ...

  9. python爬虫——用selenium爬取淘宝商品信息

    python爬虫--用selenium爬取淘宝商品信息 1.附上效果图 2.淘宝网址https://www.taobao.com/ 3.先写好头部 browser = webdriver.Chrome ...

最新文章

  1. 【廖雪峰python入门笔记】for循环
  2. android数据存储方式(三)----Files
  3. Scikit-learn数据预处理之范数缩放NormalizerScaler
  4. for遍历list scala_面试官问:List 如何一边遍历,一边删除?
  5. mysql流式查询mybatis_流式查询:MyBatis千万级数据查询解决方案,避免OOM
  6. 创新品类,N次方的市场爆炸力
  7. 技术架构演进|0到千万DAU,微淘如何走过?
  8. 分级时间轮优化普通时间轮定时器
  9. Using SharePoint 2003 Web Services to Retrieve Data From A List
  10. Nutanix:在云转型的道路上飞奔
  11. Rootkit Hunter系统检测工具
  12. 【学习 OpenCV】—— 色彩空间(RGB、HSV、rgb2hsv、rgb2gray 的实现)
  13. VB代码颜色修改(修改注册表的方法)
  14. 小学生自学奥数必备的这些书籍
  15. vue3 - composition api
  16. 日语 数字 时间 星期 月日 读法总结
  17. 淘宝带你走进——幽灵Crash迷踪案
  18. 高中发表在论文计算机方面,高中计算机论文
  19. 把Colab运行后生成的文件保存到Google drive
  20. 线段树1——神奇的数据结构

热门文章

  1. 这些软件太强了,Windows必装!尤其程序员!
  2. 计算机的发展与教育的关系,浅谈人工智能与教育教学的关系
  3. 依维莫司/Everolimus——一款非常厉害的mTOR抑制剂
  4. ARM Linux快速启动详细设计
  5. 2018年9月全国计算机二级报名系统入口,广东2018年9月全国计算机二级考试报名系统(官方)...
  6. 一嗨租车新疆自驾推荐:去霍城寻找最浪漫的夏天
  7. 机器学习笔记 一:机器学习思路
  8. python计算AUC值
  9. Maven项目POM配置好后,下载jar包位置设置(本地仓库配置)
  10. Vue 颜色选择器组件