欢迎您光临本站,如有问题请及时联系我们。唯一指定客服QQ:1518918268

seo技巧:如何分析网站日志?

    热度:℃      作者:互联网

如果你连原始的访问日志是什么都不知道,或者根本不关心,我只能说你是个无能的站长。一旦网站出了问题,你一定很无奈!就算你掌握了seo的基础知识,也要擅长

很多SEO新手站长可能觉得不分析网站日志没关系。相信大家都在自己的网站上安装了网站统计代码,比如Google analytics,Quantum statistics,百度Statistics,cnzz,这些工具可以统计网站的流量,但是这些统计工具无法统计你主机上资源的原始访问信息,比如谁下载了一张图片,也无法统计没有添加统计代码的地方,比如后台操作页面。

绝大多数收费主机都提供原始的访问日志,网站服务器会自动记录每个访客的一些访问信息,并保存在原始的访问日志文件中。如果您的主机不提供日志功能,建议您在到期后更换主机。日志记录了网站上所有资源的访问信息,包括所有网页打开过程中加载的资源,如图片、CSS、JS、FLASH、HTML、MP3等。还记录了谁访问了这些资源、他们曾经访问过什么以及结果是什么等。可以说,原始访问日志记录了主机所有资源的使用情况。

1.我们可以准确定位有多少搜索引擎蜘蛛在爬我们的网站,还可以屏蔽假蜘蛛(这类蜘蛛主要是收集的,会增加我们服务器的成本);

2.通过分析网站日志,我们可以准确定位搜索引擎蜘蛛抓取的页面和时间长度,并依次对我们的网站进行微调;

3.http返回状态代码。搜索引擎蜘蛛和用户每次访问我们的网站都会产生类似301,404,200的状态。我们可以参考这类信息,对我们有问题的网站进行简单的诊断,及时处理问题。

如果你找到一个资源(网页,图片,mp3等。)日志中频繁访问,你要注意资源用在哪里!如果这些请求的来源(Referer)不是您的网站或为空,并且状态代码(Http Code)为200,则意味着您的资源很可能被盗。你可以通过Referer找到链盗的网址,这可能是你网站流量突然增加的原因,所以你要做好防盗链。

如果某些请求的信息不是这个站点的资源,那么Http Code不是403就是404,但是从名称分析来看,它可能是一个保存数据库信息的文件。如果这些信息被别人拿走了,那么攻击你的网站就容易多了。发起这些请求的目的无非是扫描您的网站的漏洞。如果您漫无目的地扫描和下载这些已知的漏洞文件,您可能会在您的网站上发现一个漏洞。通过观察我们可以发现,这些请求中使用的Agent几乎都是非常规的浏览器类型,比如Mozilla/4.0、Mozilla/5.0或者lib,上面提供的日志格式化工具已经集成了针对这些请求的报警功能。我们可以通过禁止这些代理访问来防止它们被扫描。具体方法后面会介绍。

通过观察日志中的信息,可以看到你的网站被蜘蛛访问的频率,进而可以看到你的网站是否受到搜索引擎的青睐,这些都是SEO关注的问题。日志格式化工具集成了搜索引擎蜘蛛的提示功能。蜘蛛在普通搜索引擎中使用的代理列表如下:

通过查看格式化的日志,您可以查看和跟踪某个IP在某个时间段内的一系列访问行为。单个IP的访问记录越多,你的网站PV越高,用户粘性越好;如果单个IP有很好的访问记录,你要考虑如何让你的网站内容更有吸引力。通过分析访问者的行为,可以为你的网站建设提供有力的参考,哪些内容好,哪些内容不好,确定网站的发展方向;通过分析访问者的行为,看看他们做了什么,可以猜测访问者的意图,及时发现恶意用户。

总结:还有一点需要介绍的是,当一个网站被搜索引擎K击中时,网站日志可以提供给我们被K击中的原因(我认为是站组的朋友),通过网站日志的相关数据,可以看到网站搜索引擎恢复正常访问的时间,让我们可以选择继续还是放弃。虽然很无奈,但也是不得已而为之的明智选择。回搜狐多看

来源:本文由互联网原创撰写,欢迎分享本文,转载请保留出处和链接!部分信息来源互联网,如有侵权,请联系删除。