关闭

robots.txt站点文件_详解网站的robots.txt限制指令怎么编写

时间: 2018-11-12阅读: 1407标签: seo

这篇文章主要介绍:robots.txt是什么?robots.txt中的参数含义。robots.txt写法大全和robots.txt语法的作用,robots.txt编写注意事项


robots.txt是什么?

robots.txt是一个纯文本文件,是爬虫抓取网站的时候要查看的第一个文件,一般位于网站的根目录下。robots.txt是用来告诉搜索引擎网站上哪些内容可以被访问、哪些不能被访问。当搜索引擎访问一个网站的时候,它首先会检查网站是否存在robots.txt,如果有则会根据文件命令访问有权限的文件。

而一个网站为什么要写robots.txt,主要有四点: 

1、保护网站安全
2、节省流量
3、禁止搜索引擎收录部分页面
4、引导蜘蛛爬网站地图 


robots.txt中的参数含义:  

1. User-agent:描述搜索引擎spider的名字

在“robots.txt“文件中,如果有多条 User-agent记录,说明有多个robot会受到该协议的约束。所以,“robots.txt”文件中至少要有一条User- agent记录。如果该项的值设为*(通配符),则该协议对任何搜索引擎机器人均有效。在“robots.txt”文件 中,“User-agent:*”这样的记录只能有一条。


2. Disallow: / 禁止访问的路径

例如,Disallow: /home/news/data/,代表爬虫不能访问/home/news/data/后的所有URL,但能访问/home/news/data123

Disallow: /home/news/data,代表爬虫不能访问/home/news/data123、/home/news/datadasf等一系列以data开头的URL。

前者是精确屏蔽,后者是相对屏蔽


3.  Allow:/允许访问的路径

例如,Disallow:/home/后面有news、video、image等多个路径,接着使用Allow:/home/news,代表禁止访问/home/后的一切路径,但可以访问/home/news路径。


robots.txt写法大全和robots.txt语法的作用

1如果允许所有搜索引擎访问网站的所有部分的话 我们可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下即可。
robots.txt写法如下:

User-agent: *
Disallow:

或者

User-agent: *
Allow: /


2如果我们禁止所有搜索引擎访问网站的所有部分的话
robots.txt写法如下:

User-agent: *
Disallow: /


3如果我们需要某一个搜索引擎的抓取的话,比如百度,禁止百度索引我们的网站的话
robots.txt写法如下:

User-agent: Baiduspider
Disallow: /


4如果我们禁止Google索引我们的网站的话,其实跟示例3一样,就是User-agent:头文件的蜘蛛名字改成谷歌的Googlebot即可
robots.txt写法如下:

User-agent: Googlebot
Disallow: /


5如果我们禁止除Google外的一切搜索引擎索引我们的网站话
robots.txt写法如下:

User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /


6如果我们禁止除百度外的一切搜索引擎索引我们的网站的话
robots.txt写法如下:

User-agent: Baiduspider
Disallow:
User-agent: *
Disallow: /


7如果我们需要禁止蜘蛛访问某个目录,比如禁止admin、css、images等目录被索引的话
robots.txt写法如下:

User-agent: *
Disallow: /css/
Disallow: /admin/
Disallow: /images/


8如果我们允许蜘蛛访问我们网站的某个目录中的某些特定网址的话
robots.txt写法如下:

User-agent: *
Allow: /css/my
Allow: /admin/html
Allow: /images/index
Disallow: /css/
Disallow: /admin/
Disallow: /images/


9我们看某些网站的robots.txt里的Disallow或者Allow里会看很多的符号,比如问号星号什么的,如果使用“*”,主要是限制访问某个后缀的域名,禁止访问/html/目录下的所有以”.htm”为后缀的URL(包含子目录)。
robots.txt写法如下:

User-agent: *
Disallow: /html/*.htm


10如果我们使用“$”的话是仅允许访问某目录下某个后缀的文件
robots.txt写法如下:

User-agent: *
Allow: .asp$
Disallow: /


11如果我们禁止索引网站中所有的动态页面(这里限制的是有“?”的域名,例如index.asp?id=1)
robots.txt写法如下:

User-agent: *
Disallow: /*?*

有些时候,我们为了节省服务器资源,需要禁止各类搜索引擎来索引我们网站上的图片,这里的办法除了使用“Disallow: /images/”这样的直接屏蔽文件夹的方式之外,还可以采取直接屏蔽图片后缀名的方式。

12如果我们禁止Google搜索引擎抓取我们网站上的所有图片(如果你的网站使用其他后缀的图片名称,在这里也可以直接添加)

robots.txt写法如下:

User-agent: Googlebot
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$


13如果我们禁止百度搜索引擎抓取我们网站上的所有图片的话
robots.txt写法如下:

User-agent: Baiduspider
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$


14除了百度之外和Google之外,禁止其他搜索引擎抓取你网站的图片
(注意,在这里为了让各位看的更明白,因此使用一个比较笨的办法——对于单个搜索引擎单独定义。)
robots.txt写法如下:

User-agent: Baiduspider
Allow: .jpeg$
Allow: .gif$
Allow: .png$
Allow: .bmp$
User-agent: Googlebot
Allow: .jpeg$
Allow: .gif$
Allow: .png$
Allow: .bmp$
User-agent: *
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$


15仅仅允许百度抓取网站上的“JPG”格式文件(其他搜索引擎的办法也和这个一样,只是修改一下搜索引擎的蜘蛛名称即可)
robots.txt写法如下:

User-agent: Baiduspider
Allow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$


16仅仅禁止百度抓取网站上的“JPG”格式文件
robots.txt写法如下:

User-agent: Baiduspider
Disallow: .jpg$


17如果 ? 表示一个会话 ID,您可排除所有包含该 ID 的网址,确保 Googlebot 不会抓取重复的网页。但是,以 ? 结尾的网址可能是您要包含的网页版本。在此情况下,沃恩可将与 Allow 指令配合使用。
robots.txt写法如下:

User-agent:*
Allow:/*?$
Disallow:/*?
Disallow:/ *?

一行将拦截包含 ? 的网址(具体而言,它将拦截所有以您的域名开头、后接任意字符串,然后是问号 (?),而后又是任意字符串的网址)。Allow: /*?$ 一行将允许包含任何以 ? 结尾的网址(具体而言,它将允许包含所有以您的域名开头、后接任意字符串,然后是问号 (?),问号之后没有任何字符的网址)。


18如果我们想禁止搜索引擎对一些目录或者某些URL访问的话,可以截取部分的名字
robots.txt写法如下:

User-agent:*
Disallow: /plus/feedback.php?


robots.txt编写注意事项

在写robots.txt文件时语法一定要用对,User-agent、Disallow、Allow、Sitemap这些词都必须是第一个字母大写,后面的字母小写,而且在:后面必须带一个英文字符下的空格。
网站上线之前切记写robots.txt文件禁止蜘蛛访问网站,如果不会写就先了解清楚写法之后再写,以免给网站收录带来不必要的麻烦。
robots.txt文件生效时间在几天至一个月之间,站长自身无法控制。但是,站长可以在百度统计中查看网站robots.txt文件是否生效。


站长推荐

1.云服务推荐: 国内主流云服务商,各类云产品的最新活动,优惠券领取。地址:阿里云腾讯云华为云

2.广告联盟: 整理了目前主流的广告联盟平台,如果你有流量,可以作为参考选择适合你的平台点击进入

链接: http://www.fly63.com/article/detial/1330

关闭

SEO人员,如何做到脚踏实地的优化网站?

逆水行舟不进则退,这是SEO人员,经常谈论的一个话题,每天看着自己的关键词排名,大幅度的下滑,而自己却慢慢的按部就班的做着日常的SEO工作,对于SEO新人而言,很难平复这种心情

如何使用高版本Django开发网页的SEO模块

在使用Google搜索Django的SEO插件时,很多插件都没有更新到Python3.x,有的插件更新到了Python的高版本,但是不适用于Django的2.x。Django在升级到版本2.x的时候删除了很多类。

网站SEO优化:写好网页标题对网站排名的重要性

与大家分享下网站SEO优化的一些技巧。谈到网站优化,首先要注意的就是网站标题的写法。每一个做SEO优化的人,都会重视网站标题和描述的优化,其中网站标题是参与关键词排名竞争的重要因素。标题一般控制在35个字左右,描述控制在80个字左右

前端需要注意的SEO优化

合理的title、description、keywords:搜索对这三项的权重逐个减小。语义化的HTML代码,符合W3C规范:语义化代码让搜索引擎容易理解网页。重要内容HTML代码放在最前。

vue针对搜索引擎做SEO优化

搜索引擎优化(Search engine optimization,简称SEO),指为了提升网页在搜索引擎自然搜索结果中(非商业性推广结果)的收录数量以及排序位置而做的优化行为

提高页面速度的10种基础方法

自从Google改变Googlebot\\\'s的算法以高度支持快速,适合移动设备的网站以来,拥有快速网站变得越来越重要。如果这还不够好,用户通常会花更少的时间,转化率也会更低,你的网站体验越慢,用户的转化率就越低

网站被降权重大概有以下几点原因

首先网站被降权和IP没有半毛线关系,举个例子说,IP就像汽车的车牌一样,你的车违章了你能怪车牌的问题吗?

网站seo分析工具_站长工具、seo综合查询推荐

这里给大家分享一些常用的网站分析工具,这些工具可以帮助我们了解网站SEO的情况。比如:检测网站死链接、HTML格式检测、蜘蛛访问、网站速度测试、网站域名IP查询、PR 友情链接检查等等

网站SEO的URL优化误区

网站被搜索引擎收录是网站拥有排名的前提,只有做好网站的搜索引擎收录,才能让你拥有在搜索引擎中排名的机会。所以,网站页面被收录的越多,网站排名靠前的机会就会越多

要想做好SEO优化,前端技巧不可忽略

在优化行业,有大批站长工作经验丰厚,然而在前端优化技巧方面还存在较差,从优化的层面来看,SEO思维虽说很很关键,不过没有一个精准的前端把控,网站优化方面还是存在好多的不足。

点击更多...

内容以共享、参考、研究为目的,不存在任何商业目的。其版权属原作者所有,如有侵权或违规,请与小编联系!情况属实本人将予以删除!