Python 爬虫

获取百度关键字搜索内容

https://www.cnblogs.com/w0000/p/bd_search_page.html
Github

  • headers内的参数,仅有UA时,返回结果不完整,找个request头,增加一些参数。
import requests
if __name__ == '__main__':#输入搜索关键字keyword = input("keyword:")url = 'https://www.baidu.com/s?ie=UTF-8&wd='+str(keyword)#关键字->参数 wdheaders = { 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,''*/*;q=0.8,application/signed-exchange;v=b3;q=0.9','Accept-Encoding': 'gzip, deflate, br','Accept-Language': 'zh-CN,zh;q=0.9','Cache-Control': 'max-age=0','Connection': 'keep-alive','Cookie': 'BIDUPSID=A9CF2B5EF23713E9B3AB7A1C14D4C39C; PSTM=1615628417; ''BAIDUID=BFB5E80B14EAC333F6595234A98229D4:FG=1; ''BDUSS''=VMyQ2dOVWNQY345S1FBa2hnVGstNjRIbWpKbFM3WnpHS1JRQmFvaXdyc3J3WHBnRVFBQUFBJCQAAAAAAAAAAAEAAAC0nX6jxuG62rDX0~AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAACs0U2ArNFNgR; BDUSS_BFESS=VMyQ2dOVWNQY345S1FBa2hnVGstNjRIbWpKbFM3WnpHS1JRQmFvaXdyc3J3WHBnRVFBQUFBJCQAAAAAAAAAAAEAAAC0nX6jxuG62rDX0~AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAACs0U2ArNFNgR; __yjs_duid=1_bc5d8acf3d5efe6396879160d8c1727b1618473293154; BDORZ=B490B5EBF6F3CD402E515D22BCDA1598; H_WISE_SIDS=107313_110085_127969_128698_164869_168389_175756_176678_177060_177094_177168_177370_177413_177474_178328_178602_178804_179348_179368_179402_179428_180407_180434_180435_180513_180641_180654_180757_180856_180870_181125_181218_181271_181370_181398_181428_181433_181582_181628_181646_181660_181667_181808_181827_181984_182025_182076_182194_182243_182258_182273_182331_182382_182412_182462_182550_182586_182612_182668; BDICON=10294984.98; BDPASSGATE=IlPT2AEptyoA_yiU4VKI3kIN8efRMPG4HB8JS5p63lStfCaWmhH3BrUzWz0HSieXBDP6wZTXdMsDxXTqXlVXa_EqnBsZolpOaSaXzKGoucHtVM69-t5yILXoHUE2sA8PbRhL-3MEF2ZELlMvcgjchQZrchW8z3IcnwL7hy47ifaADYjyZVm2r7m-Z9sJLCPAPNu594rXnEpKKSm0Ut0lTS8yqC1yM8gvzw0ag1A7A3D5rkoXGurSRvAa1Fz5BJV2BxCyGwC78qSo0-MvrpckVEIdnUSI7tC; delPer=0; SE_LAUNCH=5%3A1627379664; MSA_PBT=98; MSA_ZOOM=1056; BD_CK_SAM=1; BD_HOME=1; BAIDUID_BFESS=BFB5E80B14EAC333F6595234A98229D4:FG=1; COOKIE_SESSION=3839_0_9_9_25_6_0_0_9_2_1_0_3737_0_9_0_1627380134_0_1627380125%7C9%2316622_17_1627218664%7C9; BD_UPN=12314753; H_PS_645EC=c90a2NhsDXypUAYkVFE5oVmVt7WaXl0YOFIPxZuF1ec6LOHjc%2FW3M66duU4; BA_HECTOR=0081840h0k800k0k291gfvpcd0q; BDSVRTM=58; MSA_WH=300_634; MSA_PHY_WH=600_1268; wpr=0','Host': 'www.baidu.com','Referer': 'https://www.baidu.com/','sec-ch-ua': '"Chromium";v="92", " Not A;Brand";v="99", "Google Chrome";v="92"','sec-ch-ua-mobile': '?1','Sec-Fetch-Dest': 'document','Sec-Fetch-Mode': 'navigate','Sec-Fetch-Site': 'same-origin','Sec-Fetch-User': '?1','Upgrade-Insecure-Requests': '1','User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.107 Mobile Safari/537.36'}rsp = requests.get(url=url,headers=headers)page_text = rsp.textfilename = keyword + '.html'#将结果保存到本地htmlwith open(filename,'w+',encoding='utf-8') as fp:fp.write(str(page_text))

Python 爬虫 - 获取百度关键字搜索内容相关推荐

  1. python爬虫获取百度贴吧内容

    python爬虫获取百度贴吧内容 python爬虫获取百度贴吧内容 *声明:本文仅供学习交流使用,请勿用于商业用途,违者后果自负.* python爬虫获取百度贴吧内容 博主是一个比较懒的人,不会按时更 ...

  2. 用Python爬虫获取百度企业信用中企业基本信息!太厉害了!

    一.背景 希望根据企业名称查询其经纬度,所在的省份.城市等信息.直接将企业名称传给百度地图提供的API,得到的经纬度是非常不准确的,因此希望获取企业完整的地理位置,这样传给API后结果会更加准确.百度 ...

  3. Python爬虫 | 利用python爬虫获取想要搜索的数据

    这篇文章主要介绍了利用Python爬虫采集想要搜索的信息(利用某du的接口实现)并且处理掉它的反爬手段,文中示例代码很详细,具有一定的学习价值,感兴趣的小伙伴快来一起学习吧. ☀️新人小白博主

  4. Python爬虫之百度/360搜索关键字自动提交

    一.百度 代码: import requests from bs4 import BeautifulSoup import re import jsondef getKeywordResult(key ...

  5. python爬虫代码没有结果_beautifulsoup - python爬虫获取不到标签内容

    问 题 链接如下: http://aaxxy.com/vod-detail-i... 使用requests请求此连接,然后用BeautifulSoup解析获取 dl > dd > a 标签 ...

  6. python 爬虫 获取bilibili search搜索数据,返回json格式

    话不多说直接上代码 测试用例 : 搜索java为关键词的 时长在60分钟以上的视频 import requests import json import osheaders = {"user ...

  7. 使用python爬虫获取想要搜索的数据

    爬虫小案例:使用requests库爬取(处理某du反爬) 首先,导入requests库: 接下来以某du为基础,获取某du的url: 定制请求头: 可能会遇到某du反爬,例如某du安全验证,携带coo ...

  8. python爬去百度搜索结果_python爬虫获取百度搜索结果的简单示例

    编程之家收集整理的这篇文章主要介绍了python爬虫获取百度搜索结果的简单示例,编程之家小编觉得挺不错的,现在分享给大家,也给大家做个参考. 感兴趣python爬虫获取百度搜索结果的简单示例的小伙伴, ...

  9. 从零开始写Python爬虫 --- 1.5 爬虫实践: 获取百度贴吧内容

    从零开始写Python爬虫 --- 1.5 爬虫实践: 获取百度贴吧内容 Ehco 5 个月前 经过前期大量的学习与准备,我们重要要开始写第一个真正意义上的爬虫了.本次我们要爬取的网站是:百度贴吧,一 ...

最新文章

  1. 美团高级技术专家:DDD 在旅游电商架构演进中的实践
  2. 在线作图|两分钟在线做中性群落模型分析
  3. 第二讲,我们来谈谈:“什么是二进制”
  4. 如何在windows系统上安装Tensorflow Object Detection API?
  5. html语言循环语句,Scala @功能/语言的HTML文档 - for循环,如果语句等
  6. c语言程序编译成功运行失败,为什么这个程序编译成功但运行失败?
  7. 在JupyterNotebook中使用多个Python环境
  8. 7-16 装箱问题 (20 分)
  9. Maven 常用的命令
  10. 筛选中很容易粘贴到被隐藏部分_Excel中复制(或粘贴)含有隐藏单元格的区域时如何只对可见单元格进行操作...
  11. php 获取当前的域名
  12. 【推荐软件】艾奇卡拉OK歌词字幕制作软件
  13. 南邮计算机科学专业自我鉴定,大学毕业登记表个人的自我鉴定(精选5篇)
  14. 【博主推荐】C#生成好看的二维码(附源码)
  15. L1-009 N个数求和(解决测试点三错误)
  16. RGCF: Refined Graph Convolution Collaborative Filering withConcise and Expressive Embedding
  17. C语言库函数— qsort () 详解
  18. remap中的xmap,ymap详解
  19. 规范哈夫曼编码和Deflate算法
  20. 报错FileSystemException: /datas/nodes/0/indices/gtTXk-hnTgKhAcm-8n60Jw/1/index/.es_temp_file:结构需要清理

热门文章

  1. JupyterLab 简介
  2. JMeter--监听服务器CPU和内存使用情况
  3. 【Open3d】使用open3d可视化
  4. HTML期末作业课程设计期末大作业--小米网站开发者平台首页 1页
  5. BEPS生态过程模型简介和使用
  6. 项目介绍——对话式教学系统
  7. 用计算机制作微课教学教案,如何运用微课进行计算机教学
  8. 微信记录花钱就能查?腾讯回应了
  9. 4键电子手表说明书_电子手表那种四个按键的,怎么调时间?
  10. “这是用什么写的?”