什么是爬虫预算
爬虫预算是指在给定的时间范围内,Googlebot在网站上进行爬取和索引的页面数。
为什么爬虫预算对SEO很重要
简而言之:如果谷歌不为某个页面编制索引,它就不会排名。
因此,如果您的页面数量超过了网站的爬虫预算,那么您的网站上就会有未编入索引的页面。
绝大多数网站不需要担心爬行预算。谷歌非常擅长查找和索引页面。
但在一些情况下,您确实需要注意爬行预算:
- 你经营着一个大型网站:如果你有一个网站(比如电子商务网站),拥有超过10万个页面,谷歌很难找到所有页面。
- 你刚刚添加了一堆页面:如果你最近在你的网站上添加了一个有数百个页面的新部分,你需要确保你有足够的爬行预算来快速索引它们。
- 大量重定向:大量重定向和重定向链占用了你的爬行预算。
这里有一些简单的方法来最大化网站的爬行预算。
爬虫预算最佳实践
提高站点速度
提高站点的页面速度可以导致Googlebot抓取更多站点的URL。
事实上,谷歌表示:
“加快网站速度可以提高用户体验,同时也可以提高爬取速度。”
换句话说:
缓慢加载的页面消耗了宝贵的Googlebot时间。
但如果您的页面加载速度很快,Googlebot就有时间访问和索引更多的页面。
使用内部链接
Googlebot优先考虑有大量外部和内部链接指向它们的页面。
是的,理想情况下,你会得到指向网站上每个页面的反向链接。但在大多数情况下,这并不现实。
这就是为什么内部链接如此关键。
您的内部链接将Googlebot发送到您网站上所有需要索引的不同页面。
平面网站架构
据谷歌报道:
“互联网上更流行的URL往往会被更频繁地抓取,以使它们在我们的索引中更新鲜。”
在谷歌的世界里,流行=链接权威。
这就是为什么你需要在你的网站上使用一个扁平的网站架构。
一个扁平的体系结构设置了一些东西,这样你的网站的所有页面都有一些链接权限流向它们。
避免“孤立页面”
孤立页面是指没有指向它们的内部或外部链接的页面。
谷歌很难找到孤立页面。因此,如果你想从爬行预算中获得最大的收益,请确保至少有一个指向网站上每个页面的内部或外部链接。
限制重复内容
出于许多原因,限制重复内容是明智的。
事实证明,重复的内容会损害你的爬行预算。
这是因为谷歌不想通过索引具有相同内容的多个页面来浪费资源。
因此,请确保网站的页面100%由独特的优质内容组成。
对于一个拥有超过10万页的网站来说,这并不容易。但如果你想从爬行预算中获得最大收益,这是必须的。