环境:python 3.6 + selenium

实现百度云盘登录,(下一篇预告----上传文件至百度云盘文件夹)

代码:

# -*- coding:utf-8 -*-
import time
from selenium import webdriver
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.common.by import By
#登录网盘
def login(username,password):try:chrome_options = webdriver.ChromeOptions()chrome_options.add_argument('--headless')#无界面选项driver = webdriver.Chrome(executable_path=r'E:\Persona_project\Py-Program\Spider\ZhenQiWang_spider\driver\chromedriver.exe')# ,chrome_options=chrome_options)driver.delete_all_cookies()#清除所有cookiesdriver.get("http://pan.baidu.com/")driver.maximize_window()#界面窗口放大WebDriverWait(driver, 1000).until(EC.presence_of_all_elements_located((By.CLASS_NAME, "pass-form-logo")))# 登陆百度网盘driver.find_element_by_xpath('//*[@id="TANGRAM__PSP_4__footerULoginBtn"]').click()driver.find_element_by_id('TANGRAM__PSP_4__userName').clear()driver.find_element_by_id('TANGRAM__PSP_4__userName').send_keys(username)driver.find_element_by_id('TANGRAM__PSP_4__password').clear()driver.find_element_by_id('TANGRAM__PSP_4__password').send_keys(password)time.sleep(10)driver.find_element_by_id('TANGRAM__PSP_4__submit').click()time.sleep(3)# 确认是否登陆成功driver.find_element_by_xpath('//*[@id="dialog1"]/div[2]/div/div[2]/span').click()test = driver.find_element_by_xpath('//*[@id="layoutAside"]/div/div/div/ul[1]/li[1]/a/span/span[2]').textif test == "全部文件":print('登陆成功!!!')time.sleep(3)else:driver.close()login(username, password)except:print('登录失败,正在重新登录!!')login(username, password)if __name__ == '__main__':username='xxx'#账号password='xxx'#密码login(username,password)

爬虫实战(二)之登录百度云盘相关推荐

  1. java爬取网页数据_Python网络爬虫实战(二)数据解析

    Python网络爬虫实战 (二)数据解析 本系列从零开始阐述如何编写Python网络爬虫,以及网络爬虫中容易遇到的问题,比如具有反爬,加密的网站,还有爬虫拿不到数据,以及登录验证等问题,会伴随大量网站 ...

  2. 爬虫实战:12306登录

    爬虫实战:破解点触验证码,实现12306登录 1.目标 实现12306登录,获取登录cookies 2.技术点 1.借用第三方打码平台,进行图片验证码识别 2.破解selenium webdriver ...

  3. Python网络爬虫实战(四)模拟登录

    对于一个网站的首页来说,它可能需要你进行登录,比如知乎,同一个URL下,你登录与未登录当然在右上角个人信息那里是不一样的. (登录过) (未登录) 那么你在用爬虫爬取的时候获得的页面究竟是哪个呢? 肯 ...

  4. Python爬虫实战:模拟登录淘宝网站

    前言 在完成爬虫任务的时候,我们总是会遇到用户账号登陆的问题,如果自己手动登陆的话,那么工作量就很大了,如何解决登陆问题呢? 今天老师带领大家使用selenium完成淘宝账号登陆 本篇文章知识点: s ...

  5. python3爬虫实战二:股票信息抓取及存储

    参考:http://python.jobbole.com/88350/?utm_source=blog.jobbole.com&utm_medium=relatedPosts#article- ...

  6. python爬取cctalk视频_python爬虫urllib使用和进阶 | Python爬虫实战二

    python爬虫urllib使用和进阶 上节课已经介绍了爬虫的基本概念和基础内容,接下来就要开始内容的爬取了. 其实爬虫就是浏览器,只不过它是一个特殊的浏览器.爬取网页就是通过HTTP协议访问相应的网 ...

  7. 爬虫实战(二) 用Python爬取网易云歌单

    最近,博主喜欢上了听歌,但是又苦于找不到好音乐,于是就打算到网易云的歌单中逛逛 本着 "用技术改变生活" 的想法,于是便想着写一个爬虫爬取网易云的歌单,并按播放量自动进行排序 这篇 ...

  8. 爬虫实战二:百度贴吧之全吧搜索

    百度搜索每个关键字最多显示76页,每页最多显示10条数据.(截至2022/11/23) 一.爬虫需求 _id = scrapy.Field() # _id:data_tid也是thread_id,该帖 ...

  9. Python网络爬虫实战(二)数据解析

    上一篇说完了如何爬取一个网页,以及爬取中可能遇到的几个问题.那么接下来我们就需要对已经爬取下来的网页进行解析,从中提取出我们想要的数据. 根据爬取下来的数据,我们需要写不同的解析方式,最常见的一般都是 ...

  10. python爬虫天气实例scrapy_2017.08.04 Python网络爬虫之Scrapy爬虫实战二 天气预报...

    1.项目准备:网站地址:http://quanzhou.tianqi.com/ 2.创建编辑Scrapy爬虫: scrapy startproject weather scrapy genspider ...

最新文章

  1. [转]阿里巴巴集团去IOE运动的思考与总结
  2. Service xxx does not have a SELinux domain defined
  3. 全球及中国蓝牙智能锁行业发展格局及投资经营效益分析报告2022-2027年
  4. python sqlite3更新数据,python sqlite3-使用f字符串更新数据库函数
  5. tcpdump命令速查
  6. 上传文件数据 Requests
  7. python逻辑型数据也叫什么_python基础(三)python数据类型
  8. access数据库驱动的安装方法
  9. vmware 无法安装 (出现原因及解决办法)
  10. delphi10 ftp文件名乱码问题
  11. 最近十年诞生的6种新编程语言
  12. 新创建了用户没有计算机图标,w10我的电脑图标没了怎么办
  13. Django之wagtail安装及配置
  14. html的strong标签是什么意思,Strong标签和B标签怎么用?区别有哪些
  15. php odbc informix,Informix CLI 与 ODBC
  16. 2020ECCV|EPNet: Enhancing Point Features with Image Semantics for 3D Object Detection阅读笔记
  17. 今日恐慌与贪婪指数为18 恐慌程度有所缓解
  18. Ubuntu16.04 anaconda 上安装 opencv
  19. 查看电脑当前使用的壁纸
  20. 英语“不规则”动词的“规律”

热门文章

  1. java excel批量导入数据库数据_java把excel数据批量导入到数据库
  2. QCC3005 芯片开发过程中碰到的一些问题
  3. Eviews做ARIMA模型
  4. 利用简单的磁盘映射,Samba帮助网站与关关采集器分离,实现杰奇小说远程采集,弊端很多,不建议使用,建议直接利用桌面安装
  5. 十天学会php chm,【div+css】十天学会div+css---第一天_html/css_WEB-ITnose
  6. 使用iptables+脚本实现只允许中国IP访问服务器
  7. linux下解包bin二进制文件_Linux系统bin文件打包方法
  8. 在管家婆软件中项目管理教程
  9. newifi刷老毛子笔记
  10. 华硕老毛子(Padavan)——校园网锐捷(Ruijie)认证路由器开机启动设置(开机脚本设置)