五种影响蜘蛛爬行深度及广度的因素

  • 发布于:2019-01-19
  • 206 人围观

首先跟大家先介绍下蜘蛛爬行的深度可以让我们深层次的页面容易被蜘蛛爬行并收录更新,我们平常都会去一些地方引蜘蛛,但是蜘蛛一般会抓取两三层,更深层的页面要通过提高网站的权重,布局好网站的层次结构才可以让蜘蛛抓取的更深更广。

下面跟大家介绍5种可以提升蜘蛛抓取爬行深度及广度的方法 一、网站层次结构 要利于蜘蛛爬行,首先得有一个清晰的层次结构。树形结构是比较理想的网站结构,蜘蛛能够很好的理解并爬行。采用首页-索引页-内容页的形式有利于用户在最短的时间内找到需求的信息。而且由于相关性极强的内容在同一栏目下,提高了聚合度,这样更有利于蜘蛛的爬行整合。同时,树形结构应该遵循层数尽可能少的原则。

二、网站导航、次导航、面包屑 网站导航是网站不可或缺的重要组成部分。采用统一的导航栏不仅有助于用户体验,更有助于蜘蛛识别。由于蜘蛛能有效识别并爬行css。因此,对于导航栏字体使用font-weight属性是有效的。但切勿因为追求效果而采用js、ajax、inframe、flash等蜘蛛无法有效爬行的技术。次导航同样可以使用font-weight属性表明重要性,而面包屑导航也是必不可少的,要注意尽量避免使用url链接,而更多采用锚文本链接。

三、内容页 新的内容应尽量出现在蜘蛛频繁更新的地方。因此,内容页应按ID或发布时间排序。而每篇内容页应和其他页面有效链接。可以在内容结束后加入上一篇、下一篇窜连上下篇文章。同时可以增加相关阅读、推荐阅读等栏目,这样更有助于蜘蛛索引。

四、标签、标签云 标签、标签云是提高聚合类内容可爬行性的有效途径。而标签云采用不同颜色、不同大小、不同粗细以区分不同用户关注度的内容。因该说无论从用户体验还是索引的主次都是有益的。但不应为追求标签云效果,而采用jquery等技术,这样就失去了标签云的SEO意义。

五、Sitemap Sitemap文件对于蜘蛛的索引是很重要的。Sitemap的制作不是本文讨论的重点。如果你的站点规模不是很大,请尽量采用。xml格式,并放置于根目录下。百度sitemap工具正在内测中,因此暂时无法提交sitemap文件,我们只能采用提交网页的方式,提交新的页面。 以上就是5点可以提升蜘蛛抓取的方法,做seo要注重细节,处理好这些,面包培训,可以让蜘蛛更容易收录我们的页面,提升网站的权重。

万企互联
标签: