您好,欢迎访问【高丹SEO】网站登录
西安SEO为您提供SEO基础知识,SEO排名技术,网站优化教程,SEO问题解答,网站优化,网站SEO顾问等服务。
首页 >> SEO基础知识 >> Robots文件写法与技巧

Robots文件写法与技巧

2017-07-27 0
浏览次数745次

Robots文件相信各位站长朋友一定不会陌生,因为在网站优化过程中会用到。首先我们应该知道Robots文件的作用,Robots文件主要是用于限制搜索引擎抓取哪些,禁止搜索引擎抓取哪些。搜索引擎在Spider爬虫在抓取网页的过程中会先访问Robots文件,相当于搜索引擎Spider爬虫与网页之间的一份协议。网页允许spider抓取哪些,它才能抓取,禁止抓取的Spider将不会被抓取,在这里西安SEO来跟大家详细的说下Robots文件的写法以及技巧

robots文件限制蜘蛛的抓取

Robots文件存放在网站根目录,以robots.txt文件的形式存在。

在这里用几个最常见的情况,来举例说明下Robots文件写法:

1、允许所有搜索引擎收录整站:

robots文件空白即可,不用在里面写任何语句。

2、禁止所有搜索引擎收录站内的某些文件夹:

User-agent: *

Disallow: /目录名1/

Disallow: /目录名2/

Disallow: /目录名3/

3. 禁止某个SE收录本站,例如禁止百度:

User-agent: Baiduspider

Disallow: /

4. 禁止所有SE收录本站:

User-agent: *

Disallow: /

Robots文件的使用技巧:

1. 每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该在网站中添加一个robots.txt。

2. 网站管理员必须使蜘蛛程序远离某些服务器上的目录——保证服务器性能。比如:大多数网站服务器都有程序储存在“cgi-bin”目录下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是个好主意,这样能够避免将所有程序文件被蜘蛛索引,可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。

3. 如果你的网站是动态网页,并且你为这些动态网页创建了静态副本,以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件里设置避免动态网页被蜘蛛索引,以保证这些网页不会被视为含重复内容。

4. 合理使用robots.txt文件还能避免访问时出错。比如,不能让搜索者直接进入购物车页面。因为没有理由使购物车被收录,所以你可以在robots.txt文件里设置来阻止搜索者直接进入购物车页面。

全部评论:0