【python爬虫专项(23)】利用Selenium实现网页账号登录(以豆瓣网为例)
案例网页:https://book.douban.com/
1)找到“登陆/注册”的标签,并click
输入对应代码如下
log_in = browser.find_element_by_xpath('//*[@id="db-global-nav"]/div/div[1]/a')
log_in.click()
输出结果为:
并跳转页页面到登录窗口,如下
2)找到密码登录的标签,如下
输入对应代码如下
browser.find_element_by_xpath('//*[@id="account"]/div[2]/div[2]/div/div[1]/ul[1]/li[2]').click()
运行后的结果为:(由短信登录/注册,跳转到密码登录选项框)
3) 获取用户名和密码的标签信息,并清空里面的内容(为了防止存在错误输入)
首先获取用户名(手机号/邮箱)的输入窗口
然后获取密码的输入窗口
上面两步完成之后,接着就是清空里面的内容,代码如下
username = browser.find_element_by_xpath('//*[@id="username"]')
password = browser.find_element_by_xpath('//*[@id="password"]')username.clear()
password.clear()
4)输入用户名和密码并点击登录按钮
先找到登录按钮对应的标签信息,如下
接着在用户名和密码窗口输入对应的信息,并点击登录按钮,执行代码如下
username.send_keys("aaa")
password.send_keys("aaa")browser.find_element_by_xpath('//*[@id="account"]/div[2]/div[2]/div/div[2]/div[1]/div[4]/a').click()
print(browser.current_url)
输出的结果为:
https://accounts.douban.com/passport/login?source=book
并跳转页面,如下(右上角已经有登录信息了)
【python爬虫专项(23)】利用Selenium实现网页账号登录(以豆瓣网为例)相关推荐
- 使用 requests+lxml 库的 Python 爬虫实例(以爬取网页连载小说《撒野》为例)
需求目标 介绍使用 requests 库与 lxml 库进行简单的网页数据爬取普通框架与爬虫实例,本文以爬取网页连载小说<撒野>为例~ 当然有很多小说基本都能找到现成的 .txt 或者 . ...
- Python爬虫基础:初探selenium——动态网页静态网页
前言 Selenium是一个用于Web应用程序测试的工具.Selenium测试直接运行在浏览器中,就像真正的用户在操作一样. 支持的浏览器包括IE(7,8,9,10,11),Mozilla Chrom ...
- python3爬虫系列23之selenium+腾讯OCR识别验证码登录微博且抓取数据
python3爬虫系列23之selenium+腾讯OCR识别验证码登录微博且抓取数据 1.前言 上一篇是一个 python3爬虫系列22之selenium模拟登录需要验证码的微博且抓取数据, 我们是首 ...
- python爬虫--Scrapy框架--Scrapy+selenium实现动态爬取
python爬虫–Scrapy框架–Scrapy+selenium实现动态爬取 前言 本文基于数据分析竞赛爬虫阶段,对使用scrapy + selenium进行政策文本爬虫进行记录.用于个人爬虫学习记 ...
- 建站四部曲之Python爬虫+数据准备篇(selenium)
本系列分为四篇: 建站四部曲之后端接口篇(SpringBoot+上线) 建站四部曲之Python数据爬虫篇(selenium) 建站四部曲之前端显示篇(React+上线) 建站四部曲之移动端篇(And ...
- Python爬虫(10)selenium爬虫后数据,存入csv、txt并将存入数据并对数据进行查询
之前的文章有关于更多操作方式详细解答,本篇基于前面的知识点进行操作,如果不了解可以先看之前的文章 Python爬虫(1)一次性搞定Selenium(新版)8种find_element元素定位方式 Py ...
- Python爬虫(9)selenium爬虫后数据,存入mongodb实现增删改查
之前的文章有关于更多操作方式详细解答,本篇基于前面的知识点进行操作,如果不了解可以先看之前的文章 Python爬虫(1)一次性搞定Selenium(新版)8种find_element元素定位方式 Py ...
- 【python爬虫专项(31)】链家二手房源数据采集4(噪声数据处理)
清洗数据来源 数据是来自于python爬虫专项(28)和(29)里面采集的分页信息和深度信息,如下 1) data_1表格下面获取的分页信息 2) data_2表格下面获取的深度信息 清洗逻辑:[函数 ...
- python爬虫学习23
python爬虫学习23 目录 python爬虫学习23 三.正则表达式 4. findall 方法 5. sub 6. compile 三.正则表达式 4. findall 方法 之前我们学习了se ...
最新文章
- 如何读论文才不至于发疯?
- Android - 启动器图标大小
- 我的2013-从GIS学生到GIS职业人的飞跃
- OpenKruise 如何实现应用的可用性防护?
- httpclient帮助类
- nginx系列之二:配置文件解读
- URI 和 URL 的区别
- [汇编学习笔记][第十六章直接定址表]
- 用Python词云看电影--生而为人,对不起
- 你可以退部的,不必说抱歉
- 群晖服务器密码修改,群晖nas使用教程:重置黑群晖登陆密码 – 群晖教程
- 如何选择网页更新提醒工具
- ntp服务restrict_ntp服务器配置问题
- 基于ROS的机器人建图与导航仿真全过程
- dht11温湿度传感器工作原理引脚功能电路接线图
- 龙芯电脑使用Loongnix系统
- android恢复短信中心号码,短信中心号码设置解决安卓手机不能发短信问题,教你设置解决异地发不了短信问题...
- 特征值 是 系数行列式等于0时的 解
- 【国产MCU系列】在 HK32F030 上移植 RT-Thread Nano
- 【笔记】拜占庭将军问题与共识算法