1.是否有站内搜索
站内搜索对于一个内容丰富的网站是不可或缺的,便于用户流量网站快捷查看内容
2.是否有网站地图
网站地图就是一个页面,上面放置了网站上需要的搜索引擎抓取的所有页面的链接,我们作为seo优化专员应该懂得搜索引擎蜘蛛非常喜欢网站地图。网站地图有两种格式文件,一种是针对搜索引擎而设定的xml地图,利于网站收录,另一种是针对用户而设定的HTML地图,后者引导用户达到想要去的页面,非常重要。
3.是否有Robots.txt文件
Robots协议也称为爬虫协议,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能被抓取。如果一个网站没有Robots协议那么有一些不必要收录的页面也收录了,增加了网站和搜索引擎的负担,这个时候Robots.txt文件的存在就会起到一个限制的作用,所以很有必要。
Robots文件中的常用字段
User-agent:搜索引擎抓取程序的名称,例如“Baiduspider”
Allow,表示允许被抓取的内容
Disallow,表示不允许被抓取的内容
4.是否有404错误页面
404页面是客户端在浏览网页时,服务器无法正常提供信息,或是服务器无法回应,且不知道原因所返回的页面。当已经收录的网页因为某种原因被删除时,蜘蛛再次访问时,有了404页面的引导,就不会停止爬行。另外就是,当用户通过搜索引擎收录点击到被删除页面时,一个漂亮的404页面可能会留住用户继续浏览网页。
5.是否有友情链接
友情链接是网站流量来源的根本,必须要能在网页代码中找到网址和网站名称,而且浏览网站的时候能显示网站名称,这样才叫友情链接,目前是网站外链优化的主要之一,它能够为网站带来流量、增加网站的外链、提高关键词排名和权重,还能吸引蜘蛛爬行。