禁止搜索引擎收录网站内容的几种方法
第一种、robots.txt方法
搜索引擎默认的遵守robots.txt协议,创建robots.txt文本文件放至网站根目录下,编辑代码如下:
User-agent: *
Disallow: /
通过以上代码,即可告诉搜索引擎不要抓取采取收录本网站,注意慎用如上代码:这将禁止所有搜索引擎访问网站的任何部分。
如何只禁止百度搜索引擎收录抓取网页
1、编辑robots.txt文件,设计标记为:
User-agent: Baiduspider
Disallow: /
以上robots文件将实现禁止所有来自百度的抓取。
这里说一下百度的user-agent,Baiduspider的user-agent是什么?
百度各个产品使用不同的user-agent:
产品名称 对应user-agent
无线搜索 Baiduspider
图片搜索 Baiduspider-image
视频搜索 Baiduspider-video
新闻搜索 Baiduspider-news
百度搜藏 Baiduspider-favo
百度联盟 Baiduspider-cpro
商务搜索 Baiduspider-ads
网页以及其他搜索 Baiduspider
你可以根据各产品不同的user-agent设置不同的抓取规则,以下robots实现禁止所有来自百度的抓取但允许图片搜索抓取/image/目录:
User-agent: Baiduspider
Disallow: /
User-agent: Baiduspider-image
Allow: /image/
请注意:Baiduspider-cpro和Baiduspider-ads抓取的网页并不会建入索引,只是执行与客户约定的操作,所以不遵守robots协议,这个就需要和百度的人联系才能解决了。
如何只禁止Google搜索引擎收录抓取网页,方法如下:
编辑robots.txt文件,设计标记为:
User-agent: googlebot
Disallow: /
编辑robots.txt文件
搜索引擎默认的遵守robots.txt协议
robots.txt文件放在网站根目录下。
举例来说,当搜索引擎访问一个网站时,首先会检查该网站根目录中是否存在robots.txt这个文件,如果搜索引擎找到这个文件,它就会根据这个文件里的内容,来确定它抓取的权限的范围。
User-agent:
该项的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在”robots.txt”文件中,”User-agent:*”这样的记录只能有一条。
Disallow:
该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。例如”Disallow:/help”对/help.html 和/help/index.html都不允许搜索引擎访问,而”Disallow:/help/”则允许robot访问/help.html,而不能访问/help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在”/robots.txt”文件中,至少要有一条Disallow记录。如果”/robots.txt”是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。
下面举几个robots.txt用法的例子:
User-agent: *
Disallow: /
禁止所有搜索引擎访问网站的所有部分
User-agent: Baiduspider
Disallow: /
禁止百度收录全站
User-agent: Googlebot
Disallow: /
禁止Google收录全站
User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /
禁止除Google外的一切搜索引擎收录全站
User-agent: Baiduspider
Disallow:
User-agent: *
Disallow: /
禁止除百度外的一切搜索引擎收录全站
User-agent: *
Disallow: /css/
Disallow: /admin/
禁止所有搜索引擎访问某个目录
(例如禁止根目录下的admin和css)
第二种、网页代码方法
在网站首页代码<head>与</head>之间,加入<meta name="robots" content="noarchive">代码,此标记禁止搜索引擎抓取网站并显示网页快照。
在网站首页代码<head>与</head>之间,加入<meta name="Baiduspider" content="noarchive">即可禁止百度搜索引擎抓取网站并显示网页快照。
在网站首页代码<head>与</head>之间,加入<meta name="googlebot" content="noarchive">即可禁止谷歌搜索引擎抓取网站并显示网页快照。
另外当我们的需求很怪异的时候,比如下面这几种情况:
1. 网站已经加了robots.txt,还能在百度搜索出来?
因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。如果您的拒绝被收录需求非常急迫,也可以通过投诉平台反馈请求处理。
2. 希望网站内容被百度索引但不被保存快照,我该怎么做?
Baiduspider遵守互联网meta robots协议。您可以利用网页meta的设置,使百度显示只对该网页建索引,但并不在搜索结果中显示该网页的快照。和robots的更新一样,因为搜索引擎索引数据库的更新需要时间,所以虽然您已经在网页中通过meta禁止了百度在搜索结果中显示该网页的快照,但百度搜索引擎数据库中如果已经建立了网页索引信息,可能需要二至四周才会在线上生效。
希望被百度索引,但是不保存网站快照,如下代码解决:
<meta name="Baiduspider" content="noarchive">
如果要禁止所有的搜索引擎保存你网页的快照,那么代码就是下面的:
<meta name="robots" content="noarchive">
常用的一些代码组合:
<META NAME="ROBOTS" CONTENT="INDEX,FOLLOW">:可以抓取本页,而且可以顺着本页继续索引别的链接
<META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">:不许抓取本页,但是可以顺着本页抓取索引别的链接
<META NAME="ROBOTS" CONTENT="INDEX,NOFOLLOW">:可以抓取本页,但是不许顺着本页抓取索引别的链接
<META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">:不许抓取本页,也不许顺着本页抓取索引别的链接
禁止搜索引擎收录网站内容的几种方法相关推荐
- 影响搜索引擎收录网站内容的四大原因分析
最近网站内容收录实在是不理想,简单分析了一下原因作了一份报告提交给自己上司,那么这份报告呢,也做一份写作,相信的写一些影响搜索引擎收录网站的内容吧,毕竟有的网站内容迟迟不会收录,那么这里呢,肯定是有原 ...
- java解析getresponsebodyasstring_java读取网站内容的两种方法是什么呢?
1,HttpClient 利用apache的虚拟客户端包获取某个地址的内容 1import java.io.UnsupportedEncodingException; 2import java.uti ...
- WordPress绑定多个域名和禁止搜索引擎收录非主域名的方法
最近在弄一个WordPress外贸企业站,遇到了一些问题,发出来给大家参考一下. WordPress绑定多个域名 客户网站绑定了多个域名,部分域名都直接做301重定向跳转到主域名.但是客户的主域名在做 ...
- 网页搜索帮助-禁止搜索引擎收录的方法
什么是robots.txt文件? 搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息.spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文 ...
- 将整个表单设置为只读_如何将独立网站设置为制作中,阻止搜索引擎收录网站页面?...
独立网站设置为制作中 当网站未完成状态时,可能不希望除管理员以外的人看到未完成的页面时,如何操作可以将独立网站设置为制作中,并阻止搜索引擎收录网站页面呢? 可按照以下步骤进行操作: 将网站设置为制作中 ...
- 如何禁止搜索引擎收录WordPress站点某个分类的文章?
建立好个人博客网站之后一般都比较冲动,什么类型的文章都发布,然后慢慢地就只专注于某些领域的文章,那么以前的一些"无用" 的旧文章怎么办呢?如果直接删除有可能会被降权,所以我们可 ...
- 如何检测文章被搜索引擎收录(如何让搜索引擎收录网站)
如何写网站内容才利于搜索引擎收录 网站关键词要想有好的排名,网站本身必须是被搜索引擎收录的状态,另外,网站上的相关内容收录越多,搜索引擎给与网站关键词的排名靠前概率会越大,那么,网站内容怎样来写会更加 ...
- 推广网站的经典50种方法
推广网站的经典50种方法: 1.qq群网站推广法.用几十个qq,每个qq加入几十个群,每天发一遍网站.平均50个qq*每个qq加入50个群*每个群50个人=75000人观看.如果qq更多,加入的群更多 ...
- linux清除文件内容 ,Linux清除文件内容的几种方法
# 清空或删除大文件内容的五种方法: # 法一:通过重定向到 Null 来清空文件内容 $ >test.sh # 法二:使用 'true' 命令重定向来清空文件 $ true > test ...
最新文章
- UVA 146 ID Codes
- 继承有几种方式,分别是什么,想要实现继承可以使用哪些方法
- Erlang --- 基本概念
- UML小结以及基于领域模型的系统设计初步
- linux内核那些事之buddy(anti-fragment机制)(4)
- 【转】CSS3 圆角 阴影 渐变 透明 旋转等功能详述
- ubuntu 安装php gd,如何在ubuntu上安装php5-gd?
- 树莓派4 PWM控制风扇转速
- java动态数组_Java实现动态数组
- word使用 通配符替换中文汉字
- matlab提示利用了总线信号,Simulink 总线信号
- 步进电机、伺服电机、舵机的理解
- R如何查看缺失值和处理缺失值
- Coded UI Test 常见问题总结
- C++周末训练题-机器人迷宫(BFS)
- Python初学笔记2-【循环语句】
- Python使用pypinyin实现中文拼音转换教程
- 深度学习之五:稀疏编码
- C51---PWM 脉冲宽度调制
- zebra ZT41142 打印机配置网络连接问题
热门文章
- 第九届蓝桥杯稍小分数c语言,【第九届蓝桥杯大赛征文】蓝桥梦
- python 在线客服_如何利用Python实现简单全双工在线客服系统!这个有点东西!...
- ZT I Believe I Can Fly(我相信我能飞)
- STM32F1系列以及CM3内核的时钟与中断内容详解
- IT行业产品经理和项目经理的区别?
- 重置海康威视DS-2TD2617B-6/PA测温摄像头
- RuntimeError: mat1 and mat2 shapes cannot be multiplied (192x64 and 4x3)
- 一键获取谷歌网盘(Google Drive)真实直链下载地址
- 不要迷恋哥,哥不只是传说(再【转】世界上最牛的程序员)
- python的socket