文章目录

  • 需求:有时候有些网站的反爬对cookies有限制,
  • 批量获取cookies代码
    • 使用说明:主要你要对于你需要批量获取cookies的网址多个url搜集,我自己找了100多个地址吧,放到detail_url.txt文件里面,你把这个替换成你需要的而地址,就可以直接用代码了。如果有帮助,可有给我点个赞哈?

需求:有时候有些网站的反爬对cookies有限制,

比如亚马逊会结合cookies+ip+user-agent,进行反爬,然后这时候需要找代理ip,然后每次随机一个代理ip,user_agent也要每次随机一个,代理ip高匿性和user-agent,我之前写过,不会的可以参考下面,这次博客主要写我使用selenium批量搜集cookies的方法;

这个是我之前写的user-agent博客,里面有好多我搜集去重之后的,够你用的
https://blog.csdn.net/weixin_42081389/article/details/90291488

ip高匿性进行判断,可以参考我之前的博客,高匿性参考我推荐的方法
(判断高匿代理ip的另外俩个方法(刚找到的,推荐这个))
https://blog.csdn.net/weixin_42081389/article/details/88528285

批量获取cookies代码

本人不喜欢说废话,直接上代码,需要的可以copy走,如果觉得不错或者对你有帮助,给我点个赞哈 (#.#)

from selenium import webdriverdef get_driver():chromeOptions = webdriver.ChromeOptions()# 设置代理# ip = '137.59.50.78:8080'chromeOptions.add_argument("--proxy-server=http://137.59.50.78:8080")# 不加载图片设置prefs = {'profile.default_content_setting_values': {'images': 2}}chromeOptions.add_experimental_option('prefs', prefs)# 配置参数browser = webdriver.Chrome(chrome_options=chromeOptions)browser.implicitly_wait(20)# 查看本机ip,查看代理是否起作用return browserdef get_cookies(cookie_dict):cookie_list = []# cookie_dict = [{'domain': 'www.amazon.com', 'expiry': 1624241135, 'httpOnly': False, 'name': 'csm-hit', 'path': '/', 'secure': False, 'value': 'tb:s-83ZY0YEFA6K823JDFZ0R|1563761128250&t:1563761135902&adb:adblk_no'}, {'domain': '.amazon.com', 'expiry': 2082787201.750852, 'httpOnly': False, 'name': 'session-token', 'path': '/', 'secure': False, 'value': 'T0RzE0GdgQ7YaoWEZ4BPcs+ac6CstOzAtvEyACFtAYxPyufPdXVEMcC5dYURLBaEv7LIKnyTQWMc6ldHQDH6kPosJkV/Vj7UOEqoYXKOA0U4NVqnvz063mhC6hTDRmhLxbMNRsiqAJo9ql1KMokVNlUtHiJUlYkrS4madKNxZeTfCYmNsxg37FVPyOC1roI6'}, {'domain': '.amazon.com', 'expiry': 2082787201.580912, 'httpOnly': False, 'name': 'session-id', 'path': '/', 'secure': False, 'value': '140-6940904-2207954'}, {'domain': '.amazon.com', 'expiry': 2082787201.580891, 'httpOnly': False, 'name': 'session-id-time', 'path': '/', 'secure': False, 'value': '2082787201l'}, {'domain': '.amazon.com', 'expiry': 2082787201.678984, 'httpOnly': False, 'name': 'x-wl-uid', 'path': '/', 'secure': False, 'value': '1s3BYPM0IPZSIlnsFHdNB2u2u7Iose7A6GR5udQ/qsfwlZHiKok7togAiSq4EnuJQEETkIH4kmBU='}, {'domain': '.amazon.com', 'expiry': 2082787201.580857, 'httpOnly': False, 'name': 'ubid-main', 'path': '/', 'secure': False, 'value': '135-4849511-5650047'}, {'domain': '.amazon.com', 'expiry': 2082787201.982547, 'httpOnly': False, 'name': 'i18n-prefs', 'path': '/', 'secure': False, 'value': 'USD'}]for i in cookie_dict:name = i['name']value = i['value']cookie_split = "{}={}".format(name, value)cookie_list.append(cookie_split)cookie = ';'.join(cookie_list)return cookiedef run(url_list):browser = get_driver()for url in url_list:browser.get(url)cookie_dict = browser.get_cookies()cookie = get_cookies(cookie_dict)with open('cookies.txt', 'a', encoding='utf-8') as file_write_cookie:file_write_cookie.write(cookie + '\n')print(cookie)if __name__ == '__main__':with open('detail_url.txt', 'r', encoding='utf-8') as file_read_url:ret = file_read_url.readlines()url_list = (i.strip() for i in ret)run(url_list)

使用说明:主要你要对于你需要批量获取cookies的网址多个url搜集,我自己找了100多个地址吧,放到detail_url.txt文件里面,你把这个替换成你需要的而地址,就可以直接用代码了。如果有帮助,可有给我点个赞哈?

python 使用selenium 批量获取url的cookies相关推荐

  1. Python+os+openpyxl 批量获取Excel的文件名和最大行数

    1. 提出需求 这已经不知道是粉丝问我的第几个办公自动化的问题了,并且这些问题都是大家在学习和工作中碰到过的真实问题场景.其实从下图中已经可以很明确的看出别人的需求了,我这里就不用在赘述了,下面直接上 ...

  2. Python根据域名批量获取IP地址和经纬度(2021.12.1)

    Python批量获取域名对应的IP地址和经纬度 1.DN.DNS.URL简介 1.1 域名 1.1.1 不同类型的域名 1.1.1.1 TLDs: Top-Level Domains 顶级域 1.1. ...

  3. php获取html中文本框内容_小猿圈Python入门之批量获取html内body内容的方法

    对于人工智能你了解有多少?你知道Python的使用吗?这个对于大部分初学者来说都是很难的,小猿圈Python讲师会每天为大家选择分享一个知识点,希望对你学习Python有所帮助,今天分享的就是批量获取 ...

  4. Python根据手机号码批量获取归属地/区号/邮编/运营商

    一.安装相关 Python 模块 pip install phone pip install xlrd pip install xlwt 二.调试代码 from phone import Phonei ...

  5. python 获取文件名_真实需求 | Python+os+openpyxl 批量获取Excel的文件名和最大行数...

    1. 提出需求 这已经不知道是粉丝问我的第几个办公自动化的问题了,并且这些问题都是大家在学习和工作中碰到过的真实问题场景.其实从下图中已经可以很明确的看出别人的需求了,我这里就不用在赘述了,下面直接上 ...

  6. Python基础学习----Requests获取url请求时间:

    想知道爬虫目标页面的二级目录的url的响应时间并打印出来: 使用的方法是: import requests r=requests.get("http://www.baidu.com" ...

  7. python(按地名)批量获取经纬度坐标

    根据百度/高德地图api得到.需要自己申请key. 话不多说,直接上代码. import requests# 使用高德API def geocodeG(address):par = {'address ...

  8. python如何读取配置文件获取url以及hhead_python爬虫小工具:(模块:copyhreaders,直接复制头文件,无须挨个添加双引号)...

    在我们写爬虫脚本的时候,把网页的头文件复制过来总是要一个一个的添加双引号,在这里给大家介绍一个小技巧.来,直接上代码:from copyheaders import headers_raw_to_di ...

  9. python爬虫-selenium模拟登录豆瓣获取cookies给requests使用

    1. selenium如何切换到iframe中操作 import time from selenium import webdriverurl = "https://www.douban.c ...

最新文章

  1. Git show-branch显示提交信息
  2. jQuery课程介绍、Query的介绍、Query初次体验、jQuery再次体验、jQuery中的顶级对象
  3. CHUNGHOP k-6868万能空调遥控器的自己家用电器的代码+自己家里的宽带账号+机顶盒型号+桌子+椅子+垫子高度
  4. Windows Redis安装
  5. typescript get方法_.NET手撸绘制TypeScript类图——上篇
  6. 可用性目标概念化(摩西十戒)
  7. mysql 内连接条件_Mysql内连接有OR条件?
  8. 18秋c语言程序设计作业答案,西工大18秋《C语言程序设计》平时作业答案.docx
  9. 关于linux模块驱动简单的Makefile
  10. 如何抢到腾讯云校园1元优惠资格(新版腾讯云)-更新
  11. shopnc route.php,教你如何开启shopnc b2b2c 伪静态
  12. Swift语言针对机器学习
  13. IIS 服务器常见漏洞
  14. 输入一个字符串并原样输出。
  15. 那些年我们在python掉进的坑系列之一pandas的to_sql
  16. 成为软件行业的福尔摩斯,还是苏格兰场?
  17. 完美世界2020业绩快报:游戏业务年营收增35%
  18. 分享86个PHP源码,总有一款适合您
  19. Java基础教程:k8s快速入门
  20. android图片缩放的处理方式

热门文章

  1. 基于JAVA超市自助结账系统的设计与实现计算机毕业设计源码+系统+数据库+lw文档+部署
  2. DVB-S相关知识第二章-卫星接收锁频参数介绍
  3. 嵌入式Linux学习(一)
  4. 应用、permission、资源
  5. Microsoft Excel 直方图
  6. Pragmatic eBook 介绍 :Test-Driving JavaScript Applications
  7. Unity地形材质贴图随高度变化
  8. python职业发展规划书范文_职业生涯规划书1000字范文
  9. 不用 is 做变量名前缀 生成代码会漏掉 is字符串
  10. NX从刷机到更换开机logo