当前您在:主页 > SEO技术 >
robots对SEO重要性你知道吗?

       现在很多一些刚接触seo的人都不知道怎么去利用好robots,甚至都不知道robots文件到底是什么,这里我们重点说一下这个问题,很多网站就是这个文件夹没有设置好导致了自己网站排名一直都不好,所以说这个文件夹对于网站优化是非常重要的,当然还是有很多人不明白的,下面小编就给大家讲解一下,希望可以帮助到大家。
 

 
       一、robots文件是用来干什么的?
 
       其实这个文件是一种协议,所有的搜索引擎蜘蛛进入网站的时候先访问的就是这个文件,具体的作用就是用来我们站长自由设置哪些文件可以抓取,哪些不能抓取。
 
       二、robots文件设置的格式:
 
       User-agent: 定义搜索引擎的类型;
 
       Crawl-delay: 定义抓取延迟
 
       Disallow:定义禁止搜索引擎收录的地址
 
       Allow: 定义允许搜索引擎收录的地址
 
       robots文件对SEO优化的重要性
 

 
       三、为什么说robots文件对SEO非常重要?
 
       1、搜索引擎喜欢原创内容,这是众所周知的事情,而这一方面并不是单单是指网站文章的原创度,另一方面网站模板的原创度也是非常重要的评分点,所以如果自己网站的模板不是原创,好要屏蔽css目录和模板目录。
 
       2、网站优化切忌的就是重复或者相似的页面,而搜索引擎浏览一个网站不是像人那样的,靠的还是蜘蛛的抓取。但是不少人没有重视的是,现在的主流网站程序都很容易自动产生一些没用的页面,比如缓存页面,搜索页面,feed页面等等,这些页面内容往往和主体内容相重复,而且没有什么用,如果不小心被蜘蛛抓到,那么对网站排名会有非常严重的负面影响,很多网站之所以没有排名,就是因为搜索引擎发现了网站存在大量的重复或者相似的页面。
 
       3、可以大大的增强蜘蛛网站的爬取效率,与网站的内链有异曲同工之用,帮助搜索引擎理解哪些才是网站重要的内容,不再浪费到其它的那些无用的页面上。
 
       4、利用robots文件可以用来屏蔽一些没有用的页面,比如隐私页面,后台登陆页面,图片目录等内容,或者屏蔽其他的一些网站关键词无关的页面。


       robots的原理:

  一、robots.txt的工作原理
 
  robots.txt是一个纯文本的文件,文件的名字必须全部小写,并且放置在网站的根目录下面,通过文件中的规则声明网站哪些内容不想被搜索引擎蜘蛛抓取收录,或者指定某个搜索引擎不能收录robots.txt也叫做爬虫协议,遵循爬虫协议的搜索引擎蜘蛛,都会根据协议的内容对网站进行爬虫抓取的。
 
  二、robots.txt的设置
 
  1.User-agent的设置
 
  在"robots.txt"文件中,如果有多条 User-agent 记录说明有多个 robot 会受到"robots.txt"的限制,对该文件来说,至少要有一条 User-agent 记录。如果该项的值设为*,则对任何 robot均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。
 
  2.Disallow的设置
 
  这个值可以是一条完整的路径,也可以是路径的非空前缀,以 Disallow 项的值开头的URL不会被 robot 访问。
 
  3.Allow的设置
 
  与 Disallow 项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以 Allow项的值开头的 URL是允许robot访问的。
 
       总之,robots文件是网站非常重要的一个优化部分,这个方面往往制约着网站的成败,这当然是网站优化非常细节的一个方面,不过往往细节决定成败,很多人却没有意识到这一点,希望通过上述的介绍,大家都会明白这方面的重要性。

上一篇:百度如何判断相关性 下一篇:怎么样让网站快速通过考核期?
热门排行
推荐阅读