网站不收录,确实让很多站长揪心。收录直接关系着排名,没有收录何来排名。但随着百度算法的不断更新,百度对于收录的准则也越来越高。如何做好网站收录已经成为站长很关心的问题。今天,小编为大家谈谈网站不收录原因及解决方法。
网站不收录原因:
一、搜索引擎是否知道页面的存在
搜索引擎要收录该页面,必须知道有这个页面。如果蜘蛛都不知道页面,谈何收录?这里主要分为两点:搜索引擎找不到网页入口和不让搜索引擎抓取。
1、搜索引擎找不到页面入口
很多时候不是你更新了文章搜索引擎就要来抓取收录的,要怎么让蜘蛛知道你的更新呢?除了有规律的更新,可以向百度站长平台主动提交URL或者是提交站点地图,也可以让搜索引擎被动收集,这就是通过外链让蜘蛛知道你的网页,还有很多时候蜘蛛来到了你的网站,却找不到你更新的链接,因为网站的链接结构做得太复杂或是内链结构差,以致搜索引擎在抓取时间类不会爬到网站深处的页面,这也造成蜘蛛不知道该页面的存在。所以不管怎么样,第一步我们要保证页面能被蜘蛛看到,关于这一点可以通过查看网站日志来判断蜘蛛是否来访过。
2.不让搜索引擎抓取
很多网站有意无意的直接在robots文件屏蔽了百度或网站部分页面,却整天在找原因为什么蜘蛛不来抓取我的页面,这能怪百度吗?你都不让别人进门了,百度是怎么收录你的网页?所以有必要时常去检查一下网站robots文件是否正常。
二、蜘蛛是否正常抓取
1、网站正常访问
都知道,蜘蛛抓取页面要从域名到DNS服务器再到网站空间,所以其中任何一个环节出现问题,蜘蛛都不能正常的抓取,首先域名需要备案,然后域名解析要正常,如果解析出现问题,域名是不能访问网站ip地址的,这个时候网站打不开,蜘蛛抓取不了页面。
2、服务器稳定
如果服务器比较卡或者不稳定,会直接影响蜘蛛抓取,蜘蛛不能很好的去抓取页面或由于加载慢只抓取到网页一半,这就很大程度上影响了网站的收录。
三、蜘蛛收录标准是否达到
1、行业不同标准也不同
这个是显而易见的,新闻类网站肯定比一般企业站容易收录,而对于医疗、博彩、成人用品等网站,标准肯定是更加严格,所以对于不同的行业,百度给予的收录标准也是不一样的。
2、不同的网站标准不同
百度有一个优先抓取的原则,对于绝大多数用户喜欢,权重高的网站收录得要快,就像新浪网、腾讯网收录得肯定要比一般网站要快,为什么?因为信任,这类网站本身就有其严格的过滤系统,在此类网站公布的内容百度基本是直接抓了就收,搜索引擎是互联网与用户的桥梁,它的目的就是给用户提供有价值的内容,你能为它提供良好的内容,它当然也会对你更好,这是互利的。所以搜索引擎不是做慈善,你的网站能给它什么?
3、内容的质量度
蜘蛛爬行频繁,就不收录,或者收录了隔几天查看又没收录。主要有两点:一是网站内容大量采集或者是提供无任何价值内容,二是网站还处于新站,百度对其有个考核期,收录较慢。
网站不收录解决方法:
一、分析网站日志,看是否有被蜘蛛爬过
1、如果页面未被蜘蛛爬行
页面未被Baiduspider爬行,那么你可以适当的给该页面做一些外链来引导蜘蛛过来爬行,也可以给搜索引擎提交该页面。那么我们就可以进行以下操作:
2、页面爬行了未收录
当页面长时间都不被百度收录的话,那么就要适当的给该页面增加一些附加价值或者对该页面进行重新的进行修改。你可以对文本新增一些图片,视频或者内容,也可以对标题进行再次编辑。总之,要让Baiduspider再次过来爬行的时候,返回的状态码不是一个无变化的状态吗,这样你的页面被收录的几率就大大的提升了。
二、检查robots设置,看是否主动屏蔽蜘蛛
Robots的设置也是非常重要的,这个很多人可能对这些还不了解。大家可看这篇文章《》,这里面有详细的教程说明,我就不再啰嗦了。若是自己robots设置的问题,那么自己进行纠正后,再在百度站长工具后台里面进行更新robots这样的话好让百度蜘蛛重新更改状态。
三、页面是否存在敏感词汇
如今,很多词对搜索引擎来说都有一定的敏感,敏感词很有可能造成你的页面不被收录,有时候也会造成网站被将去或被k。所以站长们再建设内容的时候一定要注意不要在文中出现敏感词。
四、页面内容是否存在采集及无价值内容
百度在算法中明确表明,过多的采集会被百度认为是垃圾站。建议,提交些有价值、以用户需求为目的的内容。