吉林省长春市

全面分析网站seo优化全过程

20200525 Aaron 0

seo诊断报告写法

第一步要分析的是这个网站目前的数据情况。

网站的百度权重(BR)值 谷歌的pr

 

网站的站龄 域名的时间

网站目前预估流量也是需要我们记录的

 

百度快照已经取消了,时间可以不写

 

看看网站现有的收录情况

1、站内收录 site:www.xxx.com

2、站外收录 domain:www.xxx.com

 

第二步要分析网站目前的关键词排名情况需要记录

一方面需要分析关键词的选取的是否合理,如果不合理,你要给这个网站分析定位,根据网站的定位来为这个网站选取关键词

分析选择主页关键词建议大家选取有搜索量的关键词。针对于网站内页我们可以根据我们主页的关键词来拓展长尾词。

如果人家站点布局了关键词,我们也需要去分析网站关键词的密度是否合理(2%-8%)

 诺加达营销

第三步我们要分析网站三大标签书写的是否合理,(网站的主页 、栏目页、内容页)

 

标题里面放三到五个核心关键词,尽量把搜索量较高的关键词放在标题的左边,标题的长度控制在40个汉字左右

 

关键词我们说主页里面一般可以设置5-10个关键词,把搜索量较高的词放在左边。

 

描述:我们建议用一句通顺的话,来总结出公司的核心业务,可以利用广告的语句,但是不能夸张,在描述里面也要合理运用关键词

 

内页的三大标签同主页三大标签写法基本一致,内页里面基本使用的都是长尾词。结合不同的栏目书写不同的三大标签。

第四步、我们可以来分析网站的url书写是否合理

url优化中 首先检测一下网站的301有没有做,做301是为了实现网站的首选域,那么一般情况下,我们是建议网站把不带3w的域名301指向到带3w的域名。为了避免网站页面权重分散。

url中需要检测网站的主页路径是否采用的是绝对路径,因为绝对路径的权重高于相对路径。

 

在url优化中我们需要检测看下网站网址是否采用的是伪静态的形式,如果说发现别人站点是动态的网址,我们建议需要做一个伪静态的处理。静态网址的权重高于动态的网址。

 

在url中也需要利用工具我们来检测网站中的网址是否存在死链接,如果不存在方案中就不要书写了,如果存在死链接,那么建议给网站做一个404页面,或者修改这些死链接,或者我们直接在robots文件中屏蔽这些死链接。

 

 

第五步、我们需要分析网站的层级架构是否合理

 

看看网站是否采用的是树状结构

主页做成一个层级深度

栏目页做成的是两个层级深度

内容页做成三个层级深度

 

针对于大型站点我们一般建议采用子域名的形式来表达,大型站点一般层级深度控制在5个层级左右。

 

还有一种结构叫做扁平化结构

 

树状结构 :

主页: www.xxx.com

栏目页 www.xxx.com/admin

内容页 www.xxx.com/admin/1.html

扁平结构:

主页:www.xxx.com

栏目页 www.xxx.com/admin

内容页 www.xxx.com/1.html

 

第六步 、网站地图的运用。我们在分析别人站点的时候需要检测别人的站点是否加载了合理的网站地图。加载网站地图的目的是为了让蜘蛛更好的抓取我们网站内容,如果别人站点没有使用站点地图,我们在写方案的时候建议给网站加载一个站点地图。

站点地图常用有两种格式 一种是sitemap.html   sitemap.xml

 

在根域名后面直接输入地图的文件名

www.xxx.com/sitemap.html

www.xxxx.com/sitemap.xml

 

第七步,我们需要分析网站的图片和视频文件有没有添加合理的属性,图片我们可以使用alt属性,视频文件我们需要使用title属性。都需要填写关键词

第八步:我们需要分析的是网站的404页面有没有做。

 

我们建议他做一个自定义的404页面来引导用户和蜘蛛访问我们网站其他的页面。

 

分析404

第一个分析别人的网站404页面是否采用的是默认的页面,如果说是默认的页面,我们建议做一个自定义的404页面

第二个如果你发现别人的404页面是自定义的,我们需要去检查一下他的404状态码是否返回的是404,如果是404就是正确的,如果是200或者302都表明404设置不正确。

第九步、我们需要分析别人站点的robots文件,第一个我们需要检测站点根目下是否存在robots文件,直接在站点的根域名后面输入robots.txt

www.xxx.com/robots.txt

如果说站点根目录没有这个文件我们建议他做一个robots文件,如果有这个文件,我们可以看下站点的robots文件写的合不合理。

 

一定要结合网站的文件,一般robots里面至少要有屏蔽css或者js文件的记录

还有一个我们看下robots文件有没有增加站点地图,在robots文件里面允许站点地图是可以访问的。

 

第十步、我们需要分析站内的内容,在内容中有没有合理使用关键词锚文本,如果内容中没有合理使用关键词锚文本,那么我们建议给内容添加合理的锚文本,引导蜘蛛抓取相关页面,提高网站关键词的权重和排名。

 

我们在分析页面的时候,一定要看看网站的主页,有没有可推送更新的内容。

 



标签: SEO优化
诺加达网络营销

网站建设|网站优化|竞价推广|网络营销 版权所有 2018-2020 吉ICP备18004535号