robots.txt站点文件_详解网站的robots.txt限制指令怎么编写

时间: 2018-11-12阅读: 1639标签: seo

这篇文章主要介绍:robots.txt是什么?robots.txt中的参数含义。robots.txt写法大全和robots.txt语法的作用,robots.txt编写注意事项


robots.txt是什么?

robots.txt是一个纯文本文件,是爬虫抓取网站的时候要查看的第一个文件,一般位于网站的根目录下。robots.txt是用来告诉搜索引擎网站上哪些内容可以被访问、哪些不能被访问。当搜索引擎访问一个网站的时候,它首先会检查网站是否存在robots.txt,如果有则会根据文件命令访问有权限的文件。

而一个网站为什么要写robots.txt,主要有四点: 

1、保护网站安全
2、节省流量
3、禁止搜索引擎收录部分页面
4、引导蜘蛛爬网站地图 


robots.txt中的参数含义:  

1. User-agent:描述搜索引擎spider的名字

在“robots.txt“文件中,如果有多条 User-agent记录,说明有多个robot会受到该协议的约束。所以,“robots.txt”文件中至少要有一条User- agent记录。如果该项的值设为*(通配符),则该协议对任何搜索引擎机器人均有效。在“robots.txt”文件 中,“User-agent:*”这样的记录只能有一条。


2. Disallow: / 禁止访问的路径

例如,Disallow: /home/news/data/,代表爬虫不能访问/home/news/data/后的所有URL,但能访问/home/news/data123

Disallow: /home/news/data,代表爬虫不能访问/home/news/data123、/home/news/datadasf等一系列以data开头的URL。

前者是精确屏蔽,后者是相对屏蔽


3.  Allow:/允许访问的路径

例如,Disallow:/home/后面有news、video、image等多个路径,接着使用Allow:/home/news,代表禁止访问/home/后的一切路径,但可以访问/home/news路径。


robots.txt写法大全和robots.txt语法的作用

1如果允许所有搜索引擎访问网站的所有部分的话 我们可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下即可。
robots.txt写法如下:

User-agent: *
Disallow:

或者

User-agent: *
Allow: /


2如果我们禁止所有搜索引擎访问网站的所有部分的话
robots.txt写法如下:

User-agent: *
Disallow: /


3如果我们需要某一个搜索引擎的抓取的话,比如百度,禁止百度索引我们的网站的话
robots.txt写法如下:

User-agent: Baiduspider
Disallow: /


4如果我们禁止Google索引我们的网站的话,其实跟示例3一样,就是User-agent:头文件的蜘蛛名字改成谷歌的Googlebot即可
robots.txt写法如下:

User-agent: Googlebot
Disallow: /


5如果我们禁止除Google外的一切搜索引擎索引我们的网站话
robots.txt写法如下:

User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /


6如果我们禁止除百度外的一切搜索引擎索引我们的网站的话
robots.txt写法如下:

User-agent: Baiduspider
Disallow:
User-agent: *
Disallow: /


7如果我们需要禁止蜘蛛访问某个目录,比如禁止admin、css、images等目录被索引的话
robots.txt写法如下:

User-agent: *
Disallow: /css/
Disallow: /admin/
Disallow: /images/


8如果我们允许蜘蛛访问我们网站的某个目录中的某些特定网址的话
robots.txt写法如下:

User-agent: *
Allow: /css/my
Allow: /admin/html
Allow: /images/index
Disallow: /css/
Disallow: /admin/
Disallow: /images/


9我们看某些网站的robots.txt里的Disallow或者Allow里会看很多的符号,比如问号星号什么的,如果使用“*”,主要是限制访问某个后缀的域名,禁止访问/html/目录下的所有以”.htm”为后缀的URL(包含子目录)。
robots.txt写法如下:

User-agent: *
Disallow: /html/*.htm


10如果我们使用“$”的话是仅允许访问某目录下某个后缀的文件
robots.txt写法如下:

User-agent: *
Allow: .asp$
Disallow: /


11如果我们禁止索引网站中所有的动态页面(这里限制的是有“?”的域名,例如index.asp?id=1)
robots.txt写法如下:

User-agent: *
Disallow: /*?*

有些时候,我们为了节省服务器资源,需要禁止各类搜索引擎来索引我们网站上的图片,这里的办法除了使用“Disallow: /images/”这样的直接屏蔽文件夹的方式之外,还可以采取直接屏蔽图片后缀名的方式。

12如果我们禁止Google搜索引擎抓取我们网站上的所有图片(如果你的网站使用其他后缀的图片名称,在这里也可以直接添加)

robots.txt写法如下:

User-agent: Googlebot
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$


13如果我们禁止百度搜索引擎抓取我们网站上的所有图片的话
robots.txt写法如下:

User-agent: Baiduspider
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$


14除了百度之外和Google之外,禁止其他搜索引擎抓取你网站的图片
(注意,在这里为了让各位看的更明白,因此使用一个比较笨的办法——对于单个搜索引擎单独定义。)
robots.txt写法如下:

User-agent: Baiduspider
Allow: .jpeg$
Allow: .gif$
Allow: .png$
Allow: .bmp$
User-agent: Googlebot
Allow: .jpeg$
Allow: .gif$
Allow: .png$
Allow: .bmp$
User-agent: *
Disallow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$


15仅仅允许百度抓取网站上的“JPG”格式文件(其他搜索引擎的办法也和这个一样,只是修改一下搜索引擎的蜘蛛名称即可)
robots.txt写法如下:

User-agent: Baiduspider
Allow: .jpg$
Disallow: .jpeg$
Disallow: .gif$
Disallow: .png$
Disallow: .bmp$


16仅仅禁止百度抓取网站上的“JPG”格式文件
robots.txt写法如下:

User-agent: Baiduspider
Disallow: .jpg$


17如果 ? 表示一个会话 ID,您可排除所有包含该 ID 的网址,确保 Googlebot 不会抓取重复的网页。但是,以 ? 结尾的网址可能是您要包含的网页版本。在此情况下,沃恩可将与 Allow 指令配合使用。
robots.txt写法如下:

User-agent:*
Allow:/*?$
Disallow:/*?
Disallow:/ *?

一行将拦截包含 ? 的网址(具体而言,它将拦截所有以您的域名开头、后接任意字符串,然后是问号 (?),而后又是任意字符串的网址)。Allow: /*?$ 一行将允许包含任何以 ? 结尾的网址(具体而言,它将允许包含所有以您的域名开头、后接任意字符串,然后是问号 (?),问号之后没有任何字符的网址)。


18如果我们想禁止搜索引擎对一些目录或者某些URL访问的话,可以截取部分的名字
robots.txt写法如下:

User-agent:*
Disallow: /plus/feedback.php?


robots.txt编写注意事项

在写robots.txt文件时语法一定要用对,User-agent、Disallow、Allow、Sitemap这些词都必须是第一个字母大写,后面的字母小写,而且在:后面必须带一个英文字符下的空格。
网站上线之前切记写robots.txt文件禁止蜘蛛访问网站,如果不会写就先了解清楚写法之后再写,以免给网站收录带来不必要的麻烦。
robots.txt文件生效时间在几天至一个月之间,站长自身无法控制。但是,站长可以在百度统计中查看网站robots.txt文件是否生效。


站长推荐

1.云服务推荐: 国内主流云服务商,各类云产品的最新活动,优惠券领取。地址:阿里云腾讯云华为云

链接: http://www.fly63.com/article/detial/1330

SEO提高网站排名快速见效的方法

SEO如何提升网站排名?seo中文名称搜索引擎优化,是提升网站排名的一种技术手段,常用的手段就是优化标签,内链外链等等,最核心的优化方向,“关键词”。最常见的表现形式就是软文,但是有的时候就算你做了很多,也不见得有效果?

网站流量指标的结构_uv和ip、vv、pv详解

网站流量指标的结构:PV即Page View,网站浏览量,指页面浏览的次数,用以衡量网站用户访问的网页数量。UV即独立访客数,指一天内访问某站点的人数,以cookie为依据。IP即独立IP数,指一天内使用不同IP地址的用户访问网站数量,同一IP无论访问了几个页面,独立的IP数均为1

vue针对搜索引擎做SEO优化

搜索引擎优化(Search engine optimization,简称SEO),指为了提升网页在搜索引擎自然搜索结果中(非商业性推广结果)的收录数量以及排序位置而做的优化行为

用内容稳定首页排名的技巧

了解seo关键词优化的朋友都应该清楚百度不仅喜爱有用的内容,更喜爱有用的原创的内容,而咱们优化网站的目的是为读者供给有用的,有价值的内容,这是内容营销战略的柱石,若没有在观众眼中创造具有价值的内容,那么你所发布的必定是一篇无人关怀的内容

整理seo站长查询排名工具_前端seo知识

关键词布局:1.优先级遵循,2.网址标题上尽量以_ 这种排序方式编写 一般不超过80个字符。关于img 的alt 最好写上相关信息,关于网站链接,地址来说最好为静态地址,切成绩最好不能大于3级,层级过多可能不利爬虫了解网站层级结构

网站被降权重大概有以下几点原因

首先网站被降权和IP没有半毛线关系,举个例子说,IP就像汽车的车牌一样,你的车违章了你能怪车牌的问题吗?

网站的SEO页面的要求,你做对了吗?

在做网站优化中很多人对于页面不太重视,觉得只要搞好整体的布局优化和关键词密度就行了,对于网站文章内页不太重视,这样想就错了,其实顾客看的最多的还是你的文章内页,这个页面不光要美观,元素还要足够多

如何使用高版本Django开发网页的SEO模块

在使用Google搜索Django的SEO插件时,很多插件都没有更新到Python3.x,有的插件更新到了Python的高版本,但是不适用于Django的2.x。Django在升级到版本2.x的时候删除了很多类。

seo优化:怎样才能把网站关键词排名做上来?

如何把网站关键词seo排名做上去呢?表示很多人不断探求SEO排名方法、百度排名规则。在互联网上寻找各种各样秘籍宝典,当你耗费大量的时间做这些无用工时,我需要提醒你,你忽略了做关键词seo排名成功的本质:执行力。

网站SEO优化主要分为哪些步骤?

网站seo就是指基于网站建设平台所进行的一系列seo推广行为.为其网站的宣传做铺垫.指通过对网站内部调整优化及站外优化,使网站满足搜索引擎收录排名需求

点击更多...

内容以共享、参考、研究为目的,不存在任何商业目的。其版权属原作者所有,如有侵权或违规,请与小编联系!情况属实本人将予以删除!