缘奇科普-奇怪的知识又增加了

为什么别人的网站刚上线就被收录,你做错了哪一步?

原创版权 未知作者:缘起 字体大小选择: [ ]

网站上线后,企业最头疼的事情可能就是不知何时才能被百度收录。

 

很多网站上线后往往需要等几个星期甚至超过一个月才能被收录,大大影响了公司业务的发展。

 

今天主要通过几个案例实操分享,如何让网站如何在3天内被百度收录(包括首页和部分内页)。

 

首先我们要分析百度收录速度的影响因子。

 

一般来讲,影响网站被收录的因素可能有:网站的结构结构设计、网站的原创内容、外链的数量及质量、网站页面的丰富程度等。

 

 

 

 

案例1:

 

某做保健品的商城网站,用同样的源码搭建。

 

商城A上传80个产品,发表了3篇原创文章,同时做好产品相关等内链优化工作;产品首页做了基础的 SEO优化工作,放上了网站地图,做了3,4个外链。

 

商城B上传了10个产品,做了基本的修改title等工作,放上了网站地图,做了3,4个外链。

 

两个网站同时上线,同时提交各大搜索引擎。

 

结果:商城A基本上当天被百度收录首页,同时几个关键词都获得了不错的排名,而网站B至今没被收录。

 

结论:网站结构优化、内页的丰富程度及内链非常重要,直接影响网站的收录速度。

 

 

案例二:

 

两个博客网站,用同样的源码搭建,进行了同样的内部优化工作,并且同时提交搜索引擎。

 

博客A上传之前已经有了30篇原创文章,博客B有10篇原创文章。提交搜索引擎后博客A保持每天更新2篇原创文章,博客B停止更新。

 

结果:博客A在第3天被收录,博客B未被收录。

 

结论:原创文章的数量和更新频率对收录速度有影响,百度更喜欢那些有足够内容,并且定期更新文章的网站。

 

 

案例三:

 

两个企业类网站,用同样的源码搭建和同样的模板,同时提交搜索引擎。

 

其中企业站A用的是2年多的老域名,企业站B用的是新域名。提交后两个网站每天发表一篇原创文章。

 

结果:企业站A第二天被收录,企业站B未被收录。

 

结论:域名年龄对网站收录速度影响非常大!

 

 

案例四:

 

两个博客网站,用同样的源码搭建和同样的模板,用同时购买的新域名,两个博客内容完全一样,同时每天同时更新一篇同样的文章。

 

博客A每天在权重论坛做10个外链,博客B每天在权重较差论坛做2个外链。

 

结果:博客A第2天被收录,博客B第3天被收录。

 

结论:多增加权重高的外链或许有助于加快网站被收录。

 

 

根据以上案例可以得出,想要网站在3天被百度收录,我们可以从这3方面进行优化:

 

1:网站文章与更新

 

网站在提交搜索引擎之前要保证至少有20-30篇原创文章,并且做好充分的优化工作,特别是内链方面要形式多样,数量丰富;

 

同时,有规律的进行文章更新,不仅让你的更新文章能更快的抓取到,而且也不会造成蜘蛛经常性的白跑一趟。

 

建议每天定时更新2-3篇原创文章,早上和晚上各一次。一定要原创,一定要定时。

 

2:内链建设

 

不要大量在不同页面用同样的关键词链接到首页,最好多挖掘几个长尾关键词在不同页面链接首页,这样起到的效果更好;

 

内链建设过程中要给用户合理推荐,除了在文章中增加锚文本之外;可以设置相关推荐,热门文章,更多喜欢之类的栏目。

 

这样不仅可以让蜘蛛抓取更大范围的页面,还能提高用户体验,何乐不为?

 

3:外链建设

 

提交搜索引擎后一定要及时增加有权重的外链,数量方面至少要保证20条每天,同时要尽量保证是从不同域名来的外链。

 

具体操作方法点此补课:基础课进阶课

 

 

此外,就是网站自身的基本功要结实,但是网站的基本功大部分在建站的时候就已经注定,比如牛商网建设的营销型网站,自诞生就带有良好的SEO基因,更受搜索引擎蜘蛛的喜欢。

 

 

 

没有建设营销型网站的企业,建议升级营销型网站,老网站可以从这5个方面进行优化:

 

1.网站域名、服务器

 

前面案例中也提到,网站的域名年龄对收录速度影响非常大;此外,作为网站基石的服务器也尤为重要。

 

网站服务器如果长时间打不开,就相当于你闭门谢客,蜘蛛想来也来不了。

 

所以选择空间服务器一定要舍得,没有一个好的地基,再好的房子也会垮。推荐速度更快,更稳定,更省钱的营销云空间。

 

牛商营销云——

专为营销型网站、营销型小程序而生

 

2.网站程序

 

在网站程序之中,有很多程序可以制造出大量的重复页面,这个页面一般都是通过参数来实现的,当一个页面对应了很多URL的时候,就会造成网站内容重复,可能造成网站被降权,这样就会严重影响到蜘蛛的抓取。

 

所以程序上一定要保证一个页面只有一个URL,如果已经产生,尽量通过301重定向、Canonical标签或者robots进行处理,保证只有一个标准URL被蜘蛛抓取。

 

3.建设网站地图

 

网站地图是一个网站所有链接的容器,网站地图可以方便搜索引擎蜘蛛抓取网站页面。

 

通过抓取网站页面,清晰了解网站的架构,所以建设一个网站地图不仅提高抓取率,还能获得蜘蛛好感。

 

4.检查死链,设置404页面

 

死链太多不但会减少收录页面数量,而且还会大大降低网站权重。

 

所以一定要定期排查网站的死链,向搜索引擎提交,同时要做好网站的404页面,告诉搜索引擎错误页面。

 

5.检查robots文件

 

很多网站有意无意的直接在robots文件屏蔽了百度或网站部分页面,直接导致蜘蛛进不了门,所以有必要时常去检查一下网站robots文件是否正常。

 

最后,老牛建议每次更新完页面,都主动去把内容向搜索引擎提交一下,提交一次就够了,不要没收录就一直去提交。



 

发表评论 (已有 条评论)

  

评论列表

    快来评论,快来抢沙发吧~