2019独角兽企业重金招聘Python工程师标准>>>

# Website Sitemap
Sitemap: http://www.yourdomain.com/sitemap.xml  # Crawlers Setup
User-agent: *
Crawl-delay: 10# Allowable Index
Allow: /*?p=
Allow: /catalog/seo_sitemap/category/
Allow:/catalogsearch/result/# Directories
Disallow: /404/
Disallow: /app/
Disallow: /admin/
Disallow: /cgi-bin/
Disallow: /downloader/
Disallow: /includes/
Disallow: /js/
Disallow: /lib/
Disallow: /magento/
Disallow: /media/
Disallow: /pkginfo/
Disallow: /report/
Disallow: /skin/
Disallow: /stats/
Disallow: /var/# Paths (clean URLs)
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/
Disallow: /catalogsearch/
Disallow: /checkout/
Disallow: /control/
Disallow: /contacts/
Disallow: /customer/
Disallow: /customize/
Disallow: /newsletter/
Disallow: /poll/
Disallow: /review/
Disallow: /sendfriend/
Disallow: /tag/
Disallow: /wishlist/# Files
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /STATUS.txt# Paths (no clean URLs)
Disallow: /*.js$
Disallow: /*.css$
Disallow: /*.php$
Disallow: /*?p=*&
Disallow: /*?SID=

网上还有种写法,我也不知道哪个更好,这个效果该怎么看。。。

User-agent: *
Disallow: /index.php/
Disallow: /*?
Disallow: /*.js$
Disallow: /*.css$
Disallow: /checkout/
Disallow: /tag/
Disallow: /catalogsearch/advanced/
Disallow: /review/
Disallow: /app/
Disallow: /downloader/
Disallow: /js/
Disallow: /lib/
Disallow: /media/
Disallow: /*.php$
Disallow: /pkginfo/
Disallow: /report/
Disallow: /skin/
Disallow: /var/
Disallow: /catalog/
Disallow: /customer/
Disallow: /install/
Disallow: /wishlist/
Allow: /catalogsearch/result/?q

发现一个插件,可以试试看 http://www.magentocommerce.com/magento-connect/robots-txt-6783.html

转载于:https://my.oschina.net/liufeng815/blog/353470

magento建立robots.txt文件相关推荐

  1. robots.txt文件详解

    我们知道,搜索引擎都有自己的"搜索机器人"(ROBOTS),并通过这些ROBOTS在网络上沿着网页上的链接(一般是http和src链接)不断抓取资料建立自己的数据库. 对于网站管理 ...

  2. 搜索引擎蜘蛛及网站robots.txt文件详解

    搜索引擎都有自己的"搜索机器人"(ROBOTS),并通过这些ROBOTS在网络上沿着网页上的链接(一般是http和src链接)不断抓取资料建立自己的数据库. 对于网站管理者和内容提 ...

  3. robots.txt文件的解析及过滤

    什么是robots.txt文件? robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不能被搜索引擎 ...

  4. 关于网站根目录下面robots.txt文件的作用

    谈到robots.txt文件,首先我们必须了解什么是robots协议,Robots协议(也称为爬虫协议.机器人协议等)的全称是"网络爬虫排除标准"(Robots Exclusion ...

  5. zblog php robots,zblog的robots.txt怎么写?zblog的robots.txt文件示例下载

    robots.txt对于比较seo的站长来说是一个很重要的东西,经常有朋友再问zblog的robots怎么写?本文就来详细说明下. 首先来解释下robots.txt是什么?robots.txt有什么作 ...

  6. robots.txt文件里面怎样屏蔽蜘蛛

    robots.txt文件,是每个网站都可以用来跟,遵循robots协议的搜索引擎蜘蛛,进行对话的一段代码. 我们先来看一个列子,让搜索引擎抓取所有的内容,代码如下: User-agent: * All ...

  7. 织梦根目录感染abc.php,织梦SEO优化:织梦dedecms根目录下robots.txt文件设置详解! - 张俊SEO...

    对于dedecms这个建站程序,我想大多数站长都曾经用过,他功能之强大,几乎能秒杀一切内容管理系统,而且所有页面都能生成静态的html文件,对于SEO优化也是相当有优势的,说道SEO优势,就不得不提到 ...

  8. robots.txt文件的Disallow和Allow行的区别

    2019独角兽企业重金招聘Python工程师标准>>> robots .txt文件Disallow和Allow设置顺序的不同会产生不一样的效果. 拿个robots .txt语法的例子 ...

  9. 什么是robots.txt文件

    一.什么是robots文件 Robots.txt文件是网站跟爬虫间的协议,对于专业SEO并不陌生,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,也就是说robots.txt是搜索引擎中访问 ...

最新文章

  1. 开源 java CMS - FreeCMS2.3会员注册
  2. jdbc连接oracle rac服务器
  3. python把列表样式的字符串重新转换为列表
  4. Activemq-In-action(二)
  5. [vue] vue如果想扩展某个现有的组件时,怎么做呢?
  6. 3分钟创建一个游戏类容器应用【华为云分享】
  7. sqlserver php用户登陆页,SQLServer限制IP,限制用户,限制SSMS登录
  8. 递归问题学习二之卡牌组合问题
  9. matlab画折现_用matlab画折线图
  10. 机器学习_深度学习毕设题目汇总——数据分析_数据挖掘
  11. php如何显示默认图片,图片不存在就显示默认图片
  12. OpenCV/C++:点线面相关计算
  13. Ubuntu sudo apt-get 安装下载更新软件包命令详解
  14. L1-005. 考试座位号
  15. java excel poi 包_用java poi包读取Excel单元格
  16. PKCS#11标准解读-Cryptoki库如何工作
  17. 汇编语言rep movsd 的使用
  18. 红米k30 允许调用gpu调试层_记一次APP的so层算法逆向(六)
  19. iconfont阿里巴巴矢量图标库本地下载的使用
  20. android微信被隐藏,Android|6.5.10版微信号可以隐藏了|五爷

热门文章

  1. get_headers()请求https报错解决思路
  2. 技本功丨呀~我不会写CSS之vertical-align(上集)
  3. 4个月原生weex混合开发终结()
  4. SkipList 跳表
  5. MySQL开发遇到的问题
  6. 获取某个元素相对于视窗的位置-getBoundingClientRect
  7. 关于文献检索的一些思考
  8. 2017阿里云TECH INSIGHT干货分享第六届隆重回归
  9. TIME_WAIT状态及存在原因
  10. /proc文件夹介绍