网站优化案例

关于做网站的一些经验

来源:本站日期:2017-8-14

1.设置好robots.txt。Robots.txt的作用,就是告诉搜索引擎,哪些页面或者目录是禁止抓取的。相信大家现在做网站都用cms之类的吧,这类源码本身就附带了robots.txt,因此不用操心。但是笔者就曾经遇到过一个问题:谷歌管理员工具提示有页面错误。我很是纳闷,因为我的网站是phpcms+discuz的(discuz放在bbs目录下),而这两种源码都带有robots.txt啊,怎么robots禁止的有些页面仍然被蜘蛛爬进去了呢?仔细检查后才发现,bbs目录下的robots是没有用的,只有网站根目录下的才会被蜘蛛看到。解决方法也很简单,只要把子目录下的robots中Disallow部分拷贝,粘贴到根目录下的tobots.txt里底部就可以了。需要注意的是,路径前要小小的修改一下:加上子目录名称。

2,网站内链要做好。相信现在大家做网站主流的都是用cms吧,因此内链的建立不用自己费心。但是适当的对内链做些小优化也是好的。新手们可能会头疼了:又是优化?最讨厌优化来优化去的,一点实质性内容都没有。不要担心,这里给新手们提一点简单的,实质性的建议,当然前提是至少要有一点html基础。举个例子吧,我网站装了phpcms,discuz,uchome,hdwiki,以及一些自己上传的小工具,例如山寨网易百宝箱,网络证件办理等。但是我发现,尽管自己认为很多东西确实很实用或者吸引人,就是没有人发现。我的解决方法其实很简单,在首页第一屏放了这些栏目的链接,以及它们的介绍,当中还适当采用了一些权重标签,也算是对首页的小优化吧。我选择的方式是文字介绍,虽然效果不一定比醒目的图片好,但是对于搜索引擎来说,这样绝对是好的。

3.关于文章页面的一些小建议。在文章页面,最好放上分享之类的按钮,让网友可以把文章收藏之类的。每发布完一篇文章,就自己添加到百度搜藏,这个方法很有用的哦!对于页面浏览量少的问题,本人是这样解决的:在cms官方论坛找到了一条sql,执行后使记录文章页面浏览量的字段产生一定范围的随机数。这也是权宜之计了,因为最近百度指南中暗示到文章的浏览量百度可能也能读得懂。不管这是不是真的,总归多多益善吧。

首页
电话
短信
联系