Python与Seo工具源码,全网搜录查询助手exe

很多人都说,seo是一个玄学,诚然,一方面是排名,另一方面是收录,尤其是对于渣渣而言,当然收录和排名都需要去验证,去查询,乃至去监控,大批量的话,你得自己去用工具去完成,能参与排名的前提是需要收录,所以关注搜录数据是必备的!

seo助手工具,全网搜录查询助手exe,应用python编写,可以实现批量导入要查询的网址,能实现的搜索引擎为:百度,搜狗以及360搜索引擎,导出网址已经分开为未收录文本文档(fail)以及已收录文本文档(succ),low比版,开了四个线程,差不多够用吧,工具和谐程度未知,等着你试用分享!

估计大佬们都看不上,看着玩吧!

对了,谨慎下载,需要关注本渣渣公众号,直接回复“搜录查询”,获取授权运行码,介意勿下!

链接: https://pan.baidu.com/s/1thNfN1ZVzXs01NipBel6CQ

提取码: s25b

当然,这里源码已经附上,可自行修改和调试!

有问题也可以加本渣渣微信交流探讨!

导入查询网址

导入查询网址,格式为txt,一行一个网址

#导入查询网址
class Get_urls():def __init__(self):self.search_urls=[]def get_txt_urls(self,txt_path):print('>> 正在尝试导入文本数据..')try:with open(txt_path,'r',encoding='gbk') as f:txt_urls=f.readlines()except:print("该文档为 utf-8 编码格式!")with open(txt_path,'r',encoding='utf-8') as f:txt_urls=f.readlines()print(f'>> 共有{len(txt_urls)}条初始数据!')for url in txt_urls:url=url.split()[0]if "锘縣ttps" in url:url=url.replace("锘縣ttp","http")self.search_urls.append(url)print(self.search_urls)return self.search_urls

百度搜录查询

百度搜录查询,验证关键词:"没有找到"

#百度搜录查询
class B_search():def __init__(self):self.ua=UserAgent()self.join_urls=[]self.results=[]self.headers={"User-Agent":self.ua.random,"Cookie": "BIDUPSID=A461AAF74635FFC7C8F38B6A59BA8BF5; PSTM=1595934808; H_WISE_SIDS=148077_150112_150830_153110_149355_149986_150076_147089_150087_151863_148867_150745_147279_152309_150647_153106_152537_151533_151015_151558_152590_148523_151032_127969_153226_146548_152505_152902_146652_151319_146732_153059_152740_150764_131423_152018_151389_149009_107319_151182_149251_153181_152284_144966_153116_152269_152514_152739_152249_149773_148868_150113_151703_110085; BAIDUID=0671E35F80D2F5FEEDB8387648940553:FG=1; MCITY=-%3A; BD_UPN=12314353; sug=3; ORIGIN=0; bdime=0; sugstore=1; BDORZ=B490B5EBF6F3CD402E515D22BCDA1598; delPer=0; BD_CK_SAM=1; PSINO=6; sajssdk_2015_cross_new_user=1; sensorsdata2015jssdkcross=%7B%22distinct_id%22%3A%2219306004%3A0%22%2C%22first_id%22%3A%2217587fc96ba21d-04c73361861a03-4e4c0f20-2073600-17587fc96bb59d%22%2C%22props%22%3A%7B%22%24latest_traffic_source_type%22%3A%22%E7%9B%B4%E6%8E%A5%E6%B5%81%E9%87%8F%22%2C%22%24latest_search_keyword%22%3A%22%E6%9C%AA%E5%8F%96%E5%88%B0%E5%80%BC_%E7%9B%B4%E6%8E%A5%E6%89%93%E5%BC%80%22%2C%22%24latest_referrer%22%3A%22%22%7D%2C%22%24device_id%22%3A%2217587fc96ba21d-04c73361861a03-4e4c0f20-2073600-17587fc96bb59d%22%7D; COOKIE_SESSION=2015_0_6_6_8_12_0_2_6_3_0_0_1952_0_0_0_1604300209_0_1604302136%7C9%23109815_15_1604053694%7C9; H_PS_PSSID=32820_1468_32874_32950_31660_32971_32723_7517_32117_32761; H_PS_645EC=b52c4oJuV08TA0pmH4qjMkzfvHBbPk1qT7MqNhHISWgWQcT%2BoTNGjSbPDbc; BA_HECTOR=0l8ga00h8k20843jt31fpvigt0o",}def bjoinurls(self,search_urls):for search_url in search_urls:join_url=f'https://www.baidu.com/s?wd={search_url}'self.join_urls.append(join_url)print(self.join_urls)return self.join_urls#单线程def bdsearch(self,url):print(f'>> 正在查询 {url} 百度是否收录..')response=requests.get(url,headers=self.headers,timeout=5)time.sleep(2)if response.status_code ==200:html=response.content.decode('utf-8')result_url = url.split("wd=")[1]#print(html)if "没有找到" in html:print(f"{result_url} -百度未收录")self.results.append(f"{result_url} -百度未收录")with open('fail_baidu.txt','a+',encoding='utf-8') as f:f.write(f"{result_url}\n")else:print(f"{result_url} -百度已收录")self.results.append(f"{result_url} -百度已收录")with open('succ_baidu.txt','a+',encoding='utf-8') as f:f.write(f"{result_url}\n")#多线程def dxc_bdsearch(self,urls):print(f'>> 正在开启多线程查询..')try:# 开4个 worker,没有参数时默认是 cpu 的核心数pool = ThreadPool()results = pool.map(self.bdsearch, urls)pool.close()pool.join()print("百度搜录查询已完成!")except:print("Error: unable to start thread")return self.results

搜狗搜录查询

搜狗搜录查询,大同小异,验证关键词:"0条相关"

#搜狗收录查询
class Sg_search():def __init__(self):self.ua = UserAgent()self.join_urls = []self.results = []self.headers = {"User-Agent": self.ua.random,"Cookie": "IPLOC=CN4403; SUID=981D0EB73220910A000000005F2131A2; SUV=00972C5AB70E1D985F2131A3FD344494; _ga=GA1.2.1265874139.1596180079; CXID=E8A7C57E2DACC58DC6FC681AFAE3E866; ssuid=7879419577; sw_uuid=7947207841; pgv_pvi=1464691712; wuid=AAFxJvHlMAAAAAqLMVQSlQQAGwY=; ABTEST=8|1601979367|v17; ad=Ylllllllll2KJv@4lllllVMzgV7lllllHZfptkllllGlllll4qxlw@@@@@@@@@@@; SNUID=E87FF74FF8FD4A166C307EB8F944606F; browerV=3; osV=1; ld=yZllllllll2KXDLVlllllVMK8YUlllllHZfpTlllll9llllllklll5@@@@@@@@@@; sst0=880",}def sgjoinurls(self, search_urls):for search_url in search_urls:join_url = f'https://www.sogou.com/web?query={search_url}'self.join_urls.append(join_url)print(self.join_urls)return self.join_urls# 单线程def sgsearch(self, url):print(f'>> 正在查询 {url} 搜狗是否收录..')response = requests.get(url, headers=self.headers, timeout=5)time.sleep(2)if response.status_code == 200:html = response.content.decode('utf-8')result_url = url.split("query=")[1]# print(html)if "0条相关" in html:print(f"{result_url} -搜狗未收录")self.results.append(f"{result_url} -搜狗未收录")with open('fail_sougou.txt','a+',encoding='utf-8') as f:f.write(f"{result_url}\n")else:print(f"{result_url} -搜狗已收录")self.results.append(f"{result_url} -搜狗已收录")with open('succ_sougou.txt','a+',encoding='utf-8') as f:f.write(f"{result_url}\n")# 多线程def dxc_sgsearch(self, urls):print(f'>> 正在开启多线程查询..')try:# 开4个 worker,没有参数时默认是 cpu 的核心数pool = ThreadPool()results = pool.map(self.sgsearch, urls)pool.close()pool.join()print("搜狗搜录查询已完成!")except:print("Error: unable to start thread")return self.results
这里提一个醒,http和https搜录查询结果是不一样的,百思不得其解!!

360搜录查询

搜狗搜录查询,大同小异,验证关键词:"0条相关"

#360收录查询
class S360_search():def __init__(self):self.ua = UserAgent()self.join_urls = []self.results=[]self.headers = {"User-Agent": self.ua.random,"Cookie": "QiHooGUID=41F80B0CCE5D43A22EEF0305A12CDE3F.1596003342506; __guid=15484592.2994995584481314300.1596003341831.5723; soid=TjzBKt3zrO-Rh1S7fXSb0S!6kmX5TlEerB2URZz9v4; __md=667cb161f9515972323507763d8fa7dd643a65bd2e88034.9; dpr=1; isafe=1; webp=1; _uc_m2=886a48052dbb9e2291f80055746e0d4f1f110f922b2f; _uc_mid=7cb161f953d8fa7dd643a65bd2e88034; __huid=11xZqhEl%2FfVeqclI4j%2BdQeQvX63Oph%2F%2BCVM5vxqYGxQI4%3D; _ga=GA1.2.607533084.1598082638; so_md=307cb1159868390853561f953d8fa7dd643a65bd2e88034.4; so_huid=11xZqhEl%2FfVeqclI4j%2BdQeQvX63Oph%2F%2BCVM5vxqYGxQI4%3D; __guid=9114931.3673932918268830000.1601026204371.0352; __mid=7cb161f953d8fa7dd643a65bd2e88034; __gid=9114931.910562614.1601026204503.1603272604905.85; Q=u%3Duhthb002%26n%3D%26le%3DAwH0ZGV5ZGR3WGDjpKRhL29g%26m%3DZGH5WGWOWGWOWGWOWGWOWGWOZGL0%26qid%3D144048053%26im%3D1_t018c25fbb66797efb2%26src%3D360chrome%26t%3D1; T=s%3D9015aaf14e7f5a2899505e57f0923273%26t%3D1595934758%26lm%3D0-1%26lf%3D2%26sk%3Dd659153bc633959211cc6224482ba1d9%26mt%3D1595934758%26rc%3D3%26v%3D2.0%26a%3D1; _pp_wd=1; erules=p2-1%7Cp1-7%7Cecl-2%7Ckd-5; _S=lugbh23cn4guran76ieenpmj67; gtHuid=1; count=6",}def s360joinurls(self, search_urls):for search_url in search_urls:join_url = f'https://www.so.com/s?q={search_url}'self.join_urls.append(join_url)print(self.join_urls)return self.join_urls# 单线程def s360search(self, url):print(f'>> 正在查询 {url} 360是否收录..')response = requests.get(url, headers=self.headers, timeout=5)time.sleep(2)if response.status_code == 200:html = response.content.decode('utf-8')result_url = url.split("q=")[1]# print(html)if "找不到" in html:print(f"{result_url} -360未收录")self.results.append(f"{result_url} -360未收录")with open('fail_360.txt','a+',encoding='utf-8') as f:f.write(f"{result_url}\n")else:print(f"{result_url} -360已收录")self.results.append(f"{result_url} -360已收录")with open('succ_360.txt','a+',encoding='utf-8') as f:f.write(f"{result_url}\n")# 多线程def dxc_s360search(self, urls):print(f'>> 正在开启多线程查询..')try:# 开4个 worker,没有参数时默认是 cpu 的核心数pool = ThreadPool()results = pool.map(self.s360search, urls)pool.close()pool.join()print("360搜录查询已完成!")except:print("Error: unable to start thread")return self.results

完整源码参考

完整参考源码获取 请关注微信公众号 后台回复 “搜录查询源码”

微信公众号:二爷记

不定时分享python源码及工具

Python与Seo工具源码,全网搜录查询助手exe相关推荐

  1. 免费关键词挖掘工具-python关键词挖掘工具源码

    为什么要做个关键词挖掘工具 最近做了个平台,需要做seo,然后要挖掘关键词,建立关键词库,然后根据关键词做优化. 网上找了一圈,大部分关键词感觉工具都是要收费的,也不能下载,一个个复制实在是麻烦. 要 ...

  2. Python与seo工具脚本,360/搜狗相关搜索词采集源码参考

    搜索引擎相关搜索词应该是不少seoer在寻找和选择使用的关键词拓展类别,除开热门的百度相关搜索词采集,当然还有360搜索引擎以及搜狗搜索引擎,当然知道方法以后,应用python来实现,基本都是大同小异 ...

  3. 网站站长综合seo在线查询工具源码

    介绍: 网站综合网查询工具源码站长seo综合查询工具提供网站收录查询和站长查询 以及百度权重值查询等多个站长工具,免费查询各种数据,包括收录量.反链. 域名Whois查询.ping查询.子域名查询.服 ...

  4. 翻译python代码的软件_Linux环境下的Python翻译工具源码

    玩蛇网Python教程源码示例,本文源码是用于Linux环境下的Python翻译工具源码详解. 学习计算机编程语言一定会涉及到英文和学习应用,但通常英语词典在Linux环境下都不如Win环境下的好用. ...

  5. Python+Qt抽奖点名工具源码窗体程序

     程序示例精选 Python+Qt抽奖点名工具源码窗体程序 如需安装运行环境或远程调试,见文章底部微信名片,由专业技术人员远程协助! 前言 这篇博客针对<Python+Qt抽奖点名工具源码窗体程 ...

  6. python金融实战 源代码_穆棱市seo总代直销python金融量化营业实战课程 python量化项目实战源码+课件+视频...

    python金融量化生意实战课程 python量化项目实战源码+课件+视频 1. 自愿化生意综述 重要实质: 课程实质综述,自愿化/算法生意先容,python正在自愿生意中的使用简介 2. 量化生意体 ...

  7. 图片坐标提取软件/图片坐标点和像素点颜色提取软件/图片坐标获取工具/Python图片坐标获取源码/图片像素坐标获取软件/python tkinter 图片显示(完全开源)

    该软件使用python写的,可以提取像素点的坐标还有也能获取像素点的16进制数据RGB565和RGB888(RGB888仅最新的源码才支持),可以单点坐标也可以按键坐标,甚至可以使用简单的左右键配合使 ...

  8. 抖音SEO优化源码,企业号搜索排名系统,矩阵同步分发。

    前言:抖音SEO优化源码,企业号搜索排名系统,矩阵同步分发. 抖音seo源码如何搭建?抖音seo排名优化系统软件部分源码分析,代码打包中... 场景:在 python 中,你可以使用 list[10: ...

  9. 抖音SEO优化源码,企业号搜索排名系统,矩阵分发。

    前言:抖音SEO优化源码,企业号搜索排名系统,矩阵分发. 场景:在 python 中,你可以使用 list[10:20:3] 来获取 10 到 20 索性中每隔 3 个的元素组成的数组(也支持负数索引 ...

最新文章

  1. 【腾讯bugly干货分享】微信Android热补丁实践演进之路
  2. 最近想问题想的睡不着,上来郁闷下!
  3. uniapp自定义条件编译-定制化产品
  4. (十三)其他设计模式
  5. 大学生计算机python_非计算机专业的大学生,想学习Python需要多长时间
  6. mysql php错误处理函数_PHP 错误处理
  7. [转]VSTO+WinForm+WebService+WCF+WPF示例
  8. Alarm:IT界朋友请珍惜你的身体[转贴]
  9. sersync+rsync多实例网站数据同步
  10. QT入门(六)——代码创建计算器界面|可以计算的简易计算器|按键的关联
  11. 基本知识 100040
  12. 全球定位经纬度的方法现在是GPS等系统定位,以前是指南针罗盘六分仪
  13. 基于uni-app的模板,支持h5,小程序,安卓,ios,request请求封装,全局路由拦截,也可作为项目基础模板使用
  14. 注册表方法删除WINDOWS右键多余扩展项
  15. python获取键盘按键键值_python获取键值
  16. Linux运维(指令全)
  17. 华硕装鸿蒙系统,智能家居 篇八:解决华硕路由器设置不当造成传感器延迟
  18. sql转置两种实现方式记录
  19. Android实现仿QQ登录可编辑下拉菜单
  20. tableau表计算--柏拉图曲线

热门文章

  1. ftp服务器怎样删除文件夹,ftp服务器删除文件夹
  2. 【案例】js 数组对象去重,根据对象的一个属性去重、合并
  3. CCF大数据竞赛-面向电信行业存量用户的智能套餐个性化匹配模型
  4. 堡垒机jumpserver 搭建与使用
  5. createJs 用到动画注意事项(动画师及程序员都需要了解下)
  6. BootLoader刷新之上位机刷新功能学习随笔
  7. kafka集成后台代码整理(支持kafka集群)
  8. 手眼标定学习总结:原理、Tsai方法和Matlab代码
  9. mmap java实现_理解java中的mmap
  10. codeforces E. Anonymity Is Important 【推断题(线段树|STL)】