|
后期:
前中期已经打下很好的基础了,谈到后期,其实后期无非就是重点放在维护和更新上。
第一步,找出需要维护的因素
与各大引擎已经收录的内容高度重复被判断为转载而不到PR值,网站大量页面存在重复无用的META标签导致华而不实,链向低质量或垃圾站点并参与链接工厂或大量出售链接给蜘蛛判断为作弊,客户行为反映差而不想去浏览量,这些因素往往造成了亢长而啰嗦的负面效果出来,所以我们就需要好好的维护,从新更新好MATA,并坚持原创,哪怕是再短的文章也好,详细检查链接是否有黑链或者死链,客人反应要求是否得以解决和关注。
还有些常见的问题是需要我们去关注的,比如网站被K,这都是后期常见的问题这种时候不要着急,可以从几方面着手,被K的话就推荐选择稳定的服务器,保证用户稳定流畅的访问站点;对网站的程序进行综合分析,去掉烦琐的代码,使用简单的布局,杜绝漏洞隐患,速度对服务器系统进行更新,保持安全稳定的操作系统,以保障网站的安全运行,很快就会从被K的失败走出来,嗯,之前也有出现过这个毛病,我当时花费了三天才维护好,三天内都差点焦头烂额了,不过好处却获得了很多。
第二步,更新步伐速度跟上
一句话就是让蜘蛛嗅探变成我们去抓蜘蛛,因为老是等待的话总是很被动,为什么不主动去抓呢?如何去抓是吧?童鞋们,这里有几个技巧,说的不对你别打我,说对了,你就留下伟大的淑女哥,我膜拜你之类的话吧~
1。我们可以从大量优质外链、原创性文章,网站结构好算法,用户体验这几个方面下手,之前也有谈过了吧?这里就不再重复。
2,。接着再从其他类型一样的网站作为参考,人家所更新的内容,知己知彼百战不殆。每次的新算法出现都是死伤一大片,但是总还是会分出123的排名,我们可以研究对方的排名是怎么做的,从这方面下手。
3。尽可能抛去繁琐的Flash和Ajax的使用,尽可能的使用html,(不过也不排除以后的算法,目前就是如此吧)原因就是蜘蛛只嗅索引页面,而不会索引应用程序,虽然这2个总会带来很多创意,这是各大引擎蜘蛛的嗅探原则,切记!
4。基本状况分析然后关键词分析,接着网站内部优化实施,做好网站外链建设并排名效果跟踪,根据排名效果,重回第一步,进行调整。 |
|