如何进行网站日志分析,第1张

一、什么是网站日志

1网站日志是记录web服务器接收处理请求以及运行时错误等各种原始信息的以·log结尾的文件。

2通过网站日志可以清楚的得知用户在什么IP、什么时间、用什么操作系统、什么浏览器、什么分辨率设备下访问了网站的哪个页面,是否访问成功。

3搜索引擎也属于网站中的一类用户,我们今天的分享课,主要是针对搜索引擎这种用户在服务器留下的记录展开分析。

为了方便读懂搜索引擎日志,我们需要了解不同搜索引擎蜘蛛的标识,以下为4种搜索引擎的标识——百度蜘蛛:Baiduspider搜狗:Sogou News Spider360:360Spider谷歌:Googlebot

二、如何看懂网站日志

(以下为一段日志记录)wwwcafehomecom

58180251134 - - [25/Mar/2015:13:24:33 +0800] "GET /m53256html

HTTP/11" 200 12264 "http://wwwcafehomecom/index-1s2i2p2" "Mozilla/50

(Windows NT 61) AppleWebKit/53736 (KHTML, like Gecko)

Chrome/3501916153 Safari/53736 SE 2X MetaSr 10" "-" "-" "-"

以下为字段解读:

通常日志文件较大的情况下,需要借助shell与python结合起来,做数据提取与分析。所以读懂网站日志中的字段就有利于日常的分析。这个在此不赘述,有兴趣的童鞋 可以继续深入了解。

大型网站通常可以用以上的方法来进行做日志分析。

普通的个人站点,或者企业网站,则可以通过 光年日志分析工具结合百度站长平台一起使用。

三、为什么要做网站日志分析

 先来了解SEO流量的获取流程:抓取-->索引--->排名--->点击--->流量

因此,要获得SEO流量的前提务必是,有价值的页面被搜索引擎抓取到。

所以,对于SEO运营而言,分析搜索引擎网站日志就显得非常有必要:分析抓取有无:解决一定的索引问题。发现异常:及时规避。如存在大量异常页面,404等抓取调控:让更多优质的内容被抓取,过滤无效抓取。

网站分析的最终目标:让更多有价值的页面被抓取,将有机会获得索引,从而有机会获得SEO流量。

四、怎么做网站日志分析

定期监控搜索引擎抓取量变化,历史数据的横向纵向对比才能发现异常情况。借助第三方站长平台,如百度站长平台,了解搜索引擎抓取频次变化。借助光年日志分析工具,定期做数据记录,了解重要栏目、重要页面的抓取量变化。

举个栗子:

老站点(建站1年且有人维护的网站):Seo流量出现异常波动。

分2种情况:

了解外界:了解外界的前提在于平时你得有一定的人脉基础,如果没有也没关系。泡2个地方——去搜索引擎站长平台或者加入搜索引擎站长群。比如,像百度搜索引擎,它拥有站长平台,也会相应建立站长QQ群。有人脉基础上,可以直接了解外界的情况——是否也出现类似幅度的波动?这个的前提要结合你短期做过的SEO操作一并考虑,避免误判。无人脉的情况,泡群、泡站长平台。通常如果是搜索引擎算法升级,会在群里或者站长平台有相关的小道信息出现。如果是搜索引擎自身算法升级导致的流量波动,那么就得根据新算法做相应的站内优化。比如,百度冰桶30版本提出:将严厉打击在百度移动搜索中,打断用户完整搜索路径的调起行为。如果站点有存在以上的情况就需要针对性的做优化:无论是通过对接的APPLINK调起,还是网页自主调起的应用,以及普通的网页,都应是可返回,可关闭的。用户校验搜索结果的准确性,不需要额外下载APP或者权限。

分析内在:

在分析内在之前,再次抛出这个公式:Seo流量=抓取量收录率(准确来说应该是索引率)首页率点击率

。当抓取频次出现异常必然引起抓取量的减少。因此,排除了外界的因素,就需要对网站的日志进行分析。如果你的站点是中文站点,且是百度站长平台的VIP用户。那么,你就可以先借助第三方站长平台的“抓取频次”工具(如,百度),先了解搜索引擎近期的抓取频次、抓取时间、异常页面。通常借助这个工具,我们可以对搜索引擎近期抓取情况有初步了解,并且可以借助这个工具,相应的找到一些解决办法。

在此先解释这个概念,方便理解:

1抓取频次:抓取频次是搜索引擎在单位时间内(天级)对网站服务器抓取的总次数,如果搜索引擎对站点的抓取频次过高,很有可能造成服务器不稳定,蜘蛛会根据网站内容更新频率和服务器压力等因素自动调整抓取频次。

2抓取时间:指的是搜索引擎每次抓取耗时。而影响抓取频次的可能原因有:

(1)抓取频次上限误调,调低了,则会直接影响到抓取量减少,抓取量减少则索引量少,流量相应减少。

(2)运营层面:存在大量重复页面(情况一:自身网站存在大量重复的内容。情况二:自身网站内容采集了大量互联网已存在的内容)。从搜索引擎的目标出发——搜索引擎希望抓取到更多更好的页面,而你的网站产出的却是网上泛滥的内容,何必浪费资源在你的网站上?另外,网站内容太久不更新。建议,通过有规律定期产出优质内容来解决此问题。抓取时间变长,也会导致网站抓取量减少。通常存在的可能情况是,服务器速度变慢导致抓取时间变长。还有一种可能是与网站自身结构有关系。层级太深导致。

小结一下:

老站如何做网站日志分析(针对中文站点):外界排除:

了解搜索引擎最新算法是否发生变动、同行是否也有类似变化。

内在分析:

(1)使用工具:百度站长平台(非VIP账户看后文介绍)

(2)分析方法:主要使用抓取频次分析工具进行分析,网站抓取频次、抓取时间、异常页面情况等数据变化。并与相关部门进行对接解决。

五、用光年日志分析工具

非百度VIP:

步骤:

1下载网站日志(如果是企业站点,可以直接让运维部门的童鞋帮忙下载,如果是个人站长,直接在你所购买的虚拟主机后台进行下载,文件以log为结尾的便是)

2打开光年日志分析工具,上传网站日志。

3查看分析结果。主要维度有这几个:

(1)概况分析:各种爬虫的总抓取量、总停留时间、总访问次数。

(2)目录分析:各种爬虫抓取各目录的情况分析。通过这个可以了解到搜索引擎对一些重要栏目的抓取情况,又抓取了哪些无效的页面。

(3)页面分析:通过页面分析可以了解到经常被重复抓取的页面有哪些,可以相应的做优化调整。比如,像网站的一些注册页面及登录页面,经常会发现多次被抓取,发现这种情况,我们通常会将登录/注册页面进行屏蔽处理。

(4)状态码分析主要分为2种,爬虫状态码以及用户状态码。主要反应用户/爬虫访问页面时的页面状态。通过页面状态码,我们可以了解到页面状态,做相应调整,如,当网站存在大量404页面。那就需要进一步排查,比如,有些团购页面,团购过期后,页面就直接变成404了,但并未向百度站长平台提交死链清单,则容易造成无效抓取。

查看windows server2008服务器的重启日志记录步骤如下:

1、点击菜单栏左下角“开始”按钮,在右侧的菜单栏中点击“管理工具”选项。

2、在弹出的右侧菜单栏中点击“事件查看器”选项。

3、弹出的“事件查看器”界面右侧,左侧有“windows日志”选项,单击左侧“+”。

4、在展开的列表中选中“系统”这一选项可以看到系统产生的日志记录。

5、为了方便直接查找重启的日志,在右侧的菜单栏中点击“筛选当前日志…”。

6、在弹出的窗口中选择“筛选器”选项卡,并在“任务类别”这一选项框上方的框中输入“1074”的事件ID,接着点击下方的“确定”即可看到系统所有的重启日志记录。(注:“1074”为系统重启的事件ID)

7、若要查看详细信息,双击该条目即可。

以上为查看windows server2008服务器的重启日志记录步骤。

(1)Log_NOTICE日志当启动BIND服务器时,named进程产生LOG_NOTICE日志,下面看个例子。Nov2900:00:00DNSservernamed[10123]:startingnamed990日志解释见表1(2)LOG_INFO日志在DNS服务器运行中,每隔一段时间(1小时)会产生如下的LOG_INFO日志信息:Cleanedcacheof26RRset表示清除cache。USAGE977797432976760631CPU=577u/624sCHILDCPU=0u/0s表示DNS服务器占用CPU时间。977797432976760631表示DNS服务器运行时间,以秒为单位。CPU=577u/624s表示DNS服务器使用时间,其中用户态577s,系统态624s(u:user,s:system)。CHILDCPU表示DNS服务器子进程的CPU占用情况。

用cat命令查看linux服务器日志文件。cat /var/log/messages

cat /var/log/dmesg这个是硬件的 <pre t="code" l="xml">日 志 文 件 说 明

/var/log/message 系统启动后的信息和错误日志,是Red Hat Linux中最常用的日志之一

/var/log/secure 与安全相关的日志信息

/var/log/maillog 与相关的日志信息

/var/log/cron 与定时任务相关的日志信息

/var/log/spooler 与UUCP和news设备相关的日志信息

/var/log/bootlog 守护进程启动和停止相关的日志消息

工具/原料

网站服务器、运行中网站

网站日志分析工具、FTP工具

网站日志查看流程

登录虚拟主机的管理系统(本经验以万网为例),输入主机的账号以及密码,登陆。操作如下图所示:

登录系统后台,找到"网站文件管理"中的"weblog日志下载",并点击。操作如下图所示:

点击"weblog日志下载",可以看到很多以"ex"+时间命名的压缩文件可以下载。选择所需要下载的网站日志,点击下载。操作如下图所示:

登录FTP工具,在根目录下找到"wwwlogs"文件,下载所需的压缩文件。注意:不同程序,日志存放目录不一样。操作如下图所示:

网上有很多日志分析软件,本经验以"光年seo日志分析系统"这款软件为例子,点击"新建分析任务"。操作如下图所示:

在"任务导向"中,按照实际要求改任务名以及日志类别。一般情况下可以不用修改。点击系下一步,操作如下图所示:

接着上一步,在"任务导向"中添加所需要分析的网站日志(也就是本经验第三步下载的文件),添加文件可以是一个或者多个。点击系下一步,操作如下图所示:

接着上一步,在"任务导向"中选择报告保存目录。点击系下一步,操作如下图所示:

完成之后,软件会生成一件文件夹,包含一个"报告"网页以及"files"文件,点击"报告"网页就可以查看网站日志数据了。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 如何进行网站日志分析

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情