Python与SEO,三大SEO网站查询工具关键词查询采集源码!
网站关键词查询挖掘,包括三大常用网站seo查询工具站点,爱站,站长,以及5118,其中,爱站及站长最多可查询到50页,5118可查询到100页,如果想要查询完整网站关键词排名数据,需充值购买会员,当然免费的查询也是需要注册会员的,不然也是没有查询权限!
5118
须自行补齐网站地址及Cookie协议头,查询需要登陆权限!
# 5118网站关键词采集
# -*- coding: utf-8 -*-
import requests
from lxml import etree
import time
import logginglogging.basicConfig(filename='s5118.log', level=logging.DEBUG,format='%(asctime)s - %(levelname)s - %(message)s')#获取关键词
def get_keywords(site,page):url="https://www.5118.com/seo/baidupc"headers={"Cookie":Cookie,"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36",}data={"isPager": "true","viewtype": 2,"days": 90,"url": site,"orderField": "Rank","orderDirection" : "sc","pageIndex": page,"catalogName": "","referKeyword": "",}response=requests.post(url=url,data=data,headers=headers,timeout=10)print(response.status_code)html=response.content.decode('utf-8')tree=etree.HTML(html)keywords=tree.xpath('//td[@class="list-col justify-content "]/a[@class="w100 all_array"]/text()')print(keywords)save_txt(keywords, site)return keywords#存储为csv文件
def save_csv(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'5118_{filename}.csv','a+',encoding='utf-8-sig') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")#存储为txt文件
def save_txt(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'5118_{filename}.txt','a+',encoding='utf-8') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")def main(site):logging.info(f"开始爬取网站{site}关键词数据..")num = 100keys=[]for page in range(1,num+1):print(f"正在爬取第{page}页数据..")logging.info(f"正在爬取第{page}页数据..")try:keywords = get_keywords(site, page)keys.extend(keywords)time.sleep(8)except Exception as e:print(f"爬取第{page}页数据失败--错误代码:{e}")logging.error(f"爬取第{page}页数据失败--错误代码:{e}")time.sleep(10)keys = set(keys) #去重save_csv(keys, site)if __name__ == '__main__':site=""main(site)
爱站
须自行补齐网站地址及Cookie协议头,查询需要登陆权限!
# 爱站网站关键词采集
# -*- coding: utf-8 -*-
import requests
from lxml import etree
import time
import logginglogging.basicConfig(filename='aizhan.log', level=logging.DEBUG,format='%(asctime)s - %(levelname)s - %(message)s')#获取关键词
def get_keywords(site,page):url=f"https://baidurank.aizhan.com/baidu/{site}/-1/0/{page}/position/1/"headers = {"Cookie":Cookie ,}response = requests.get(url=url,headers=headers, timeout=10)print(response.status_code)html = response.content.decode('utf-8')tree = etree.HTML(html)keywords = tree.xpath('//td[@class="title"]/a[@class="gray"]/@title')print(keywords)save_txt(keywords, site)return keywords#存储为csv文件
def save_csv(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'aizhan_{filename}.csv','a+',encoding='utf-8-sig') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")#存储为txt文件
def save_txt(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'aizhan_{filename}.txt','a+',encoding='utf-8') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")def main(site):logging.info(f"开始爬取网站{site}关键词数据..")num = 50keys=[]for page in range(1,num+1):print(f"正在爬取第{page}页数据..")logging.info(f"正在爬取第{page}页数据..")try:keywords = get_keywords(site, page)keys.extend(keywords)time.sleep(8)except Exception as e:print(f"爬取第{page}页数据失败--错误代码:{e}")logging.error(f"爬取第{page}页数据失败--错误代码:{e}")time.sleep(10)keys = set(keys) #去重save_csv(keys, site)if __name__ == '__main__':site=""main(site)
站长
须自行补齐网站地址及Cookie协议头,查询需要登陆权限!
# 站长之家网站关键词采集
# -*- coding: utf-8 -*-
import requests
from lxml import etree
import time
import logginglogging.basicConfig(filename='chinaz.log', level=logging.DEBUG,format='%(asctime)s - %(levelname)s - %(message)s')#获取关键词
def get_keywords(site,page):headers={"Cookie":Cookie,"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36",}url=f"https://rank.chinaz.com/{site}-0---0-{page}"response=requests.get(url=url,headers=headers,timeout=8)print(response)html=response.content.decode('utf-8')tree=etree.HTML(html)keywords=tree.xpath('//ul[@class="_chinaz-rank-new5b"]/li[@class="w230 "]/a/text()')print(keywords)save_txt(keywords, site)return keywords#存储为csv文件
def save_csv(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'chinaz_{filename}.csv','a+',encoding='utf-8-sig') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")#存储为txt文件
def save_txt(keywords,site):filename=site.replace("www.",'').replace(".com",'').replace(".cn",'').replace('https://','').replace('http://','')for keyword in keywords:with open(f'chinaz_{filename}.txt','a+',encoding='utf-8') as f:f.write(f'{keyword}\n')print("保存关键词列表成功!")def main(site):logging.info(f"开始爬取网站{site}关键词数据..")num = 50keys=[]for page in range(1,num+1):print(f"正在爬取第{page}页数据..")logging.info(f"正在爬取第{page}页数据..")try:keywords = get_keywords(site, page)keys.extend(keywords)time.sleep(8)except Exception as e:print(f"爬取第{page}页数据失败--错误代码:{e}")logging.error(f"爬取第{page}页数据失败--错误代码:{e}")time.sleep(10)keys = set(keys) #去重save_csv(keys, site)if __name__ == '__main__':site=""main(site)
往期推荐:
Python爬虫三种解析方式带你360搜索排名查询
Python与Seo工具全网搜录查询助手exe
Python百度下拉框关键词采集工具
Python制作sitemap.xml文件工具源码
Python调用翻译API接口实现“智能”伪原创
百度快排之Python selenium 实现搜索访问目标网站
·················END·················
你好,我是二大爷,
革命老区外出进城务工人员,
互联网非早期非专业站长,
喜好python,写作,阅读,英语
不入流程序,自媒体,seo . . .
公众号不挣钱,交个网友。
读者交流群已建立,找到我备注 “交流”,即可获得加入我们~
听说点 “在看” 的都变得更好看呐~
关注关注二大爷呗~给你分享python,写作,阅读的内容噢~
扫一扫下方二维码即可关注我噢~
关注我的都变秃了
说错了,都变强了!
不信你试试
扫码关注最新动态
公众号ID:eryeji
Python与SEO,三大SEO网站查询工具关键词查询采集源码!相关推荐
- Python+Vue计算机毕业设计美食网站设计与实现62e76(源码+程序+LW+部署)
该项目含有源码.文档.程序.数据库.配套开发软件.软件安装教程 项目运行环境配置: Python3.7.7+Django+Mysql5.7+pip list+HBuilderX(Vscode也行)+V ...
- python爬虫爬取某网站全站图片案列(源码全给可白漂,仅供学习使用,切勿用作非法用途)
爬取后保存的图片效果图 步骤入下(三步): 先去要爬取的目标网站(https://pixabay.com/)去注册一个账号. 2.注册后登录,浏览器右键鼠标,打开检查,找到登录后的cookies值. ...
- Python+Vue计算机毕业设计美食网站美食美刻h75e2(源码+程序+LW+部署)
该项目含有源码.文档.程序.数据库.配套开发软件.软件安装教程 项目运行环境配置: Python3.7.7+Django+Mysql5.7+pip list+HBuilderX(Vscode也行)+V ...
- 【英文SEO】Google网站管理员工具是什么?
Google为了更好地与网站管理员沟通,推出了这套服务,让站长可以在此查询站点在Goole的索引和排名情况.可以说Google网站管理员工具是网站管理员与Google对话的平台,不管是懂SEO或从来没 ...
- 【Python与SEO】搜狗微信搜索下拉框词采集多线程/异步采集源码公布
随意写了一下,更多可关注本渣渣微信公众号:二爷记!! 欢迎与本渣渣交流!!! 运行效果: 搜狗微信搜索下拉框词采集核心代码参考: #微信搜索下拉词采集 #首发:微信公众号:二爷记 #author:微信 ...
- seo优化时网站_选择关键词的方法
网站优化中关键词的选择和布局很关键,直接影响网站的流量.选好关键词是第一步,接下来怎么布局也很重要,今天小编带大家分享一些技巧. 1.根据内容选择关键词 在选择关键词之前,我们应该首先确定网站的内容并 ...
- 20221105新手老手怎么把网站权重提高收录提高最新php轻量级插件网站权重8怎么上去的seo到底怎么做看完本视频你就懂了许多了本插件适合所有网站所有cms长河网zhetiaohe源码无加密
网站权重8怎么上去的seo到底怎么做,看完本视频你就懂了许多了,本插件适合所有网站所有cms长河网zhetiaohe源码无加密,对网站学习爱好者有大大的帮助 网站权重8怎么上去的seo到底怎么做,看完 ...
- 抖音seo,智能剪辑,批量发布系统,源码搭建
抖音seo,智能剪辑,批量发布系统,源码搭建 抖音seo这套系统,开发之前需要权限申请,也就是官方平台,权限通过后才可以开发. 申请流程: 注册官方开放平台账号--申请服务商--关联应用--申请权限- ...
- 百度SEO站群启点自适应简洁html网源码
百度SEO站群启点自适应简洁html网源码 上传打开即可使用 右键记事本打开修改html源码,上传打开即可使用 下载地址: http://www.bytepan.com/d1Ht8roDisV
- 【python】又拍云采集工具助手exe带python图片采集源码
[python]又拍云采集工具助手exe带python图片采集源码 论坛的老哥要的东西!练手试了一下! 技术比较渣,见谅! 拿去玩! 适合想要获取 又拍云 相册图片的需求! 自己测试了一下,没有用多线 ...
最新文章
- ulimit限制 新系统_系统限制ulimit学习
- 004-hadoop家族概述
- 深度学习笔记(2) 神经网络基础
- 实木地板被机器人弄成坑_防腐木地板怎选择 防腐木地板怎样安装
- c++题目大坑:分数化小数
- opengl 保留上一帧_历史上第一部长片动画,还真有点重口
- 基于机智云平台的微电网光伏模块数据采集装置的设计
- Windows11安装安卓子系统WSA及安卓应用
- java cxf encoded,java:JAXWS 2.0不支持Rpc / encoded wsdls
- R 用回归来做 ANOVA
- oracle 创建自增序列
- ansible部署LAMP架构
- 无辜被黑 我在北大青鸟的真实工作经历(转帖)
- webpack多入口
- Jupyter Notebook 更改默认目录
- linux删除多余日志,linux删除及设置日志
- 制作一个网站是怎么样的流程?
- 阿里巴巴马云关于创新
- Matalb自制乘法口诀表、weekday和datenum时间相关函数、画图(wzl)
- MCU低功耗模式浅析