网站SEO优化从用户的角度来讲,看似正常的链接确无法打开,会增加跳出率,降低用户对网站的黏度;从搜索引擎的角度来讲,死链会造成蜘蛛无法爬取网站更多的内容,直接的影响是百度收录网站文章内容,从而影响网站本身的关键词排名,影响网站给搜索引擎传递的友好度。
对于死链,有如下方面的说明:
通过robots协议能否禁止蜘蛛爬取死链?
可以肯定的讲是能禁止的,百度方面会严格遵循robots协议。如果对此有怀疑,建议先核对是否是百度的蜘蛛在爬取死链。
如果有死链被蜘蛛爬取了,是否还可以使用robots协议来让蜘蛛屏蔽,删除这些无效的链接?
这个方法有效但不建议使用,最好的方法是使用百度站长平台的死链提交工具,通知搜索引擎这些链接是死链。
并不是说将死链提交给搜索引擎就完事了,搜索引擎蜘蛛也没有那么智能。产生这个问题的原因在于蜘蛛会再次判定提交的死链是否为真正的死链,会抽取其中的一部分进行再次验证,通过结果在做下一步的处理。
蜘蛛抓取网站的死链会影响对正常内容的抓取么
中如果网站的死链数量特别巨大,且没有利用robots协议,这种情况下蜘蛛会耗费大量的资源来抓取死链,从而减少正常内容的抓取配额;反之亦反。
网站产生的死链以哪种方式向百度提交更好?
现目前,提交死链的方式有协议死链,内容死链和跳转死链,百度官方建议的提交方式是协议死链。
有没有相关的工具,帮助seo优化人员发现站内的死链?
通过人工的方式查找网站产生的死链接,不齐全且耗时费力,在百度站长平台中有专门的死链分析工具,另外,抓取异常工具也可以帮助我们发现网站的死链接。还有就是,浏览器端有相关插件,也能批量查询网站的相关链接情况。
实际上,seo是一个过程,是将各优化因素逐步完善的过程,在网站的内部和外部设置较完善的情况下,网站关键词排名就是理所当然的。
在此,总结6个点,新手seo可以详细阅读,看自己的网站是否是按照这样的方式设置的url。
1:普通型的url更受搜索引擎的信赖。什么是普通的?普通就是不是非主流的,简单的,简短的。
2:url中需要避免出现中文字符。现在的搜索引擎爬虫对于网址中的中文识别是有缺陷的,这一点需要注意。例如wordpress中,默认的tag标签的网址就是带中文的,严格来讲,这样的设计就有问题。
3:url的长度是有字数控制的。一般来讲,整个url的字节数应该少于1024个字节,过长的字节也是识别不了的。带有过多动态参数的网址,需要注意字节数。
4:如有必要,应使用静态网址而非动态,动态网址中包含无效参数的概率更高。
5:如果网址中出现“#”,就需要注意。因为搜索引擎爬虫爬取网址的时候,会截断“#”后面的内容,导致的直接结果是“#”后面的内容不被搜索引擎抓取。还是以wp为例,评论部分的url就存在这个问题,
6:与第一点类似,url需简单,层级不宜过深。过深层级的直接后果是对搜索引擎不友好,有可能造成爬虫抓取困难的问题。像织梦建站系统的默认的文章页url设计,就有问题,不利于网站的seo优化。
很多时候,作为seo,会使用建站系统来制作网站,在这个过程中,或者说在网站上线之前,就应提前规划好网站的url结构,让url尽可能的简单,尽可能的大众化,才能向搜索引擎传达友好信息。