网站关键词查询挖掘,包括三大常用网站seo查询工具站点,爱站,站长,以及5118,其中,爱站及站长最多可查询到50页,5118可查询到100页,如果想要查询完整网站关键词排名数据,需充值购买会员,当然免费的查询也是需要注册会员的,不然也是没有查询权限!

5118

须自行补齐网站地址及Cookie协议头,查询需要登陆权限!

# 5118网站关键词采集
# -*- coding: utf-8 -*-
import requests
from lxml import etree
import time
import logginglogging.basicConfig(filename='s5118.log', level=logging.DEBUG,format='%(asctime)s - %(levelname)s - %(message)s')#获取关键词
def get_keywords(site,page):url="https://www.5118.com/seo/baidupc"headers={"Cookie":Cookie,"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36",}data={"isPager": "true","viewtype": 2,"days": 90,"url": site,"orderField": "Rank","orderDirection" : "sc","pageIndex": page,"catalogName": "","referKeyword": "",}response=requests.post(url=url,data=data,headers=headers,timeout=10)print(response.status_code)html=response.content.decode('utf-8')tree=etree.HTML(html)keywords=tree.xpath('//td[@class="list-col justify-content "]/a[@class="w100 all_array"]/text()')print(keywords)save_txt(keywords, site)return keywords#存储为csv文件
def save_csv(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'5118_{filename}.csv','a+',encoding='utf-8-sig') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")#存储为txt文件
def save_txt(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'5118_{filename}.txt','a+',encoding='utf-8') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")def main(site):logging.info(f"开始爬取网站{site}关键词数据..")num = 100keys=[]for page in range(1,num+1):print(f"正在爬取第{page}页数据..")logging.info(f"正在爬取第{page}页数据..")try:keywords = get_keywords(site, page)keys.extend(keywords)time.sleep(8)except Exception as e:print(f"爬取第{page}页数据失败--错误代码:{e}")logging.error(f"爬取第{page}页数据失败--错误代码:{e}")time.sleep(10)keys = set(keys)  #去重save_csv(keys, site)if __name__ == '__main__':site=""main(site)

爱站

须自行补齐网站地址及Cookie协议头,查询需要登陆权限!

# 爱站网站关键词采集
# -*- coding: utf-8 -*-
import requests
from lxml import etree
import time
import logginglogging.basicConfig(filename='aizhan.log', level=logging.DEBUG,format='%(asctime)s - %(levelname)s - %(message)s')#获取关键词
def get_keywords(site,page):url=f"https://baidurank.aizhan.com/baidu/{site}/-1/0/{page}/position/1/"headers = {"Cookie":Cookie ,}response = requests.get(url=url,headers=headers, timeout=10)print(response.status_code)html = response.content.decode('utf-8')tree = etree.HTML(html)keywords = tree.xpath('//td[@class="title"]/a[@class="gray"]/@title')print(keywords)save_txt(keywords, site)return keywords#存储为csv文件
def save_csv(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'aizhan_{filename}.csv','a+',encoding='utf-8-sig') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")#存储为txt文件
def save_txt(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'aizhan_{filename}.txt','a+',encoding='utf-8') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")def main(site):logging.info(f"开始爬取网站{site}关键词数据..")num = 50keys=[]for page in range(1,num+1):print(f"正在爬取第{page}页数据..")logging.info(f"正在爬取第{page}页数据..")try:keywords = get_keywords(site, page)keys.extend(keywords)time.sleep(8)except Exception as e:print(f"爬取第{page}页数据失败--错误代码:{e}")logging.error(f"爬取第{page}页数据失败--错误代码:{e}")time.sleep(10)keys = set(keys)  #去重save_csv(keys, site)if __name__ == '__main__':site=""main(site)

站长

须自行补齐网站地址及Cookie协议头,查询需要登陆权限!

# 站长之家网站关键词采集
# -*- coding: utf-8 -*-
import requests
from lxml import etree
import time
import logginglogging.basicConfig(filename='chinaz.log', level=logging.DEBUG,format='%(asctime)s - %(levelname)s - %(message)s')#获取关键词
def get_keywords(site,page):headers={"Cookie":Cookie,"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36",}url=f"https://rank.chinaz.com/{site}-0---0-{page}"response=requests.get(url=url,headers=headers,timeout=8)print(response)html=response.content.decode('utf-8')tree=etree.HTML(html)keywords=tree.xpath('//ul[@class="_chinaz-rank-new5b"]/li[@class="w230 "]/a/text()')print(keywords)save_txt(keywords, site)return keywords#存储为csv文件
def save_csv(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'chinaz_{filename}.csv','a+',encoding='utf-8-sig') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")#存储为txt文件
def save_txt(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'chinaz_{filename}.txt','a+',encoding='utf-8') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")def main(site):logging.info(f"开始爬取网站{site}关键词数据..")num = 50keys=[]for page in range(1,num+1):print(f"正在爬取第{page}页数据..")logging.info(f"正在爬取第{page}页数据..")try:keywords = get_keywords(site, page)keys.extend(keywords)time.sleep(8)except Exception as e:print(f"爬取第{page}页数据失败--错误代码:{e}")logging.error(f"爬取第{page}页数据失败--错误代码:{e}")time.sleep(10)keys = set(keys)  #去重save_csv(keys, site)if __name__ == '__main__':site=""main(site)

往期推荐:

Python爬虫三种解析方式带你360搜索排名查询

Python与Seo工具全网搜录查询助手exe

Python百度下拉框关键词采集工具

Python制作sitemap.xml文件工具源码

Python调用翻译API接口实现“智能”伪原创

百度快排之Python selenium 实现搜索访问目标网站

·················END·················

你好,我是二大爷,

革命老区外出进城务工人员,

互联网非早期非专业站长,

喜好python,写作,阅读,英语

不入流程序,自媒体,seo . . .

公众号不挣钱,交个网友。

读者交流群已建立,找到我备注 “交流”,即可获得加入我们~

听说点 “在看” 的都变得更好看呐~

关注关注二大爷呗~给你分享python,写作,阅读的内容噢~

扫一扫下方二维码即可关注我噢~

关注我的都变秃了

说错了,都变强了!

不信你试试

扫码关注最新动态

公众号ID:eryeji

Python与SEO,三大SEO网站查询工具关键词查询采集源码!相关推荐

  1. Python+Vue计算机毕业设计美食网站设计与实现62e76(源码+程序+LW+部署)

    该项目含有源码.文档.程序.数据库.配套开发软件.软件安装教程 项目运行环境配置: Python3.7.7+Django+Mysql5.7+pip list+HBuilderX(Vscode也行)+V ...

  2. python爬虫爬取某网站全站图片案列(源码全给可白漂,仅供学习使用,切勿用作非法用途)

    爬取后保存的图片效果图 步骤入下(三步): 先去要爬取的目标网站(https://pixabay.com/)去注册一个账号. 2.注册后登录,浏览器右键鼠标,打开检查,找到登录后的cookies值. ...

  3. Python+Vue计算机毕业设计美食网站美食美刻h75e2(源码+程序+LW+部署)

    该项目含有源码.文档.程序.数据库.配套开发软件.软件安装教程 项目运行环境配置: Python3.7.7+Django+Mysql5.7+pip list+HBuilderX(Vscode也行)+V ...

  4. 【英文SEO】Google网站管理员工具是什么?

    Google为了更好地与网站管理员沟通,推出了这套服务,让站长可以在此查询站点在Goole的索引和排名情况.可以说Google网站管理员工具是网站管理员与Google对话的平台,不管是懂SEO或从来没 ...

  5. 【Python与SEO】搜狗微信搜索下拉框词采集多线程/异步采集源码公布

    随意写了一下,更多可关注本渣渣微信公众号:二爷记!! 欢迎与本渣渣交流!!! 运行效果: 搜狗微信搜索下拉框词采集核心代码参考: #微信搜索下拉词采集 #首发:微信公众号:二爷记 #author:微信 ...

  6. seo优化时网站_选择关键词的方法

    网站优化中关键词的选择和布局很关键,直接影响网站的流量.选好关键词是第一步,接下来怎么布局也很重要,今天小编带大家分享一些技巧. 1.根据内容选择关键词 在选择关键词之前,我们应该首先确定网站的内容并 ...

  7. 20221105新手老手怎么把网站权重提高收录提高最新php轻量级插件网站权重8怎么上去的seo到底怎么做看完本视频你就懂了许多了本插件适合所有网站所有cms长河网zhetiaohe源码无加密

    网站权重8怎么上去的seo到底怎么做,看完本视频你就懂了许多了,本插件适合所有网站所有cms长河网zhetiaohe源码无加密,对网站学习爱好者有大大的帮助 网站权重8怎么上去的seo到底怎么做,看完 ...

  8. 抖音seo,智能剪辑,批量发布系统,源码搭建

    抖音seo,智能剪辑,批量发布系统,源码搭建 抖音seo这套系统,开发之前需要权限申请,也就是官方平台,权限通过后才可以开发. 申请流程: 注册官方开放平台账号--申请服务商--关联应用--申请权限- ...

  9. 百度SEO站群启点自适应简洁html网源码

    百度SEO站群启点自适应简洁html网源码 上传打开即可使用 右键记事本打开修改html源码,上传打开即可使用 下载地址: http://www.bytepan.com/d1Ht8roDisV

  10. 【python】又拍云采集工具助手exe带python图片采集源码

    [python]又拍云采集工具助手exe带python图片采集源码 论坛的老哥要的东西!练手试了一下! 技术比较渣,见谅! 拿去玩! 适合想要获取 又拍云 相册图片的需求! 自己测试了一下,没有用多线 ...

最新文章

  1. ulimit限制 新系统_系统限制ulimit学习
  2. 004-hadoop家族概述
  3. 深度学习笔记(2) 神经网络基础
  4. 实木地板被机器人弄成坑_防腐木地板怎选择 防腐木地板怎样安装
  5. c++题目大坑:分数化小数
  6. opengl 保留上一帧_历史上第一部长片动画,还真有点重口
  7. 基于机智云平台的微电网光伏模块数据采集装置的设计
  8. Windows11安装安卓子系统WSA及安卓应用
  9. java cxf encoded,java:JAXWS 2.0不支持Rpc / encoded wsdls
  10. R 用回归来做 ANOVA
  11. oracle 创建自增序列
  12. ansible部署LAMP架构
  13. 无辜被黑 我在北大青鸟的真实工作经历(转帖)
  14. webpack多入口
  15. Jupyter Notebook 更改默认目录
  16. linux删除多余日志,linux删除及设置日志
  17. 制作一个网站是怎么样的流程?
  18. 阿里巴巴马云关于创新
  19. Matalb自制乘法口诀表、weekday和datenum时间相关函数、画图(wzl)
  20. MCU低功耗模式浅析

热门文章

  1. 软件设计中的可用性和可用性测试
  2. 网线制作和交换机工作原理
  3. win10如何搜索计算机网络ip,win10怎样查看电脑IP地址?,看完就明白了
  4. 盘点面试中常见的智力题
  5. 机械汽修word模板素材推荐 精品 小众
  6. 用Mysql得到Webshell(MySql Backup WebShell)
  7. PostgreSQL12.2_cn.chm 中文手册 最新版
  8. Java实现抓取百度识图结果的实现和思路-3-实现断点传输
  9. Windows Mobile 6.5开发环境搭建
  10. nginx 日志格式打印