大数据流量分析[通俗易懂]

大数据流量分析[通俗易懂]数据分析工具:FineBI商业智能工具http://www.finebi.com/数据分析的本质其实是做数据对比分析,没有数据对比,单一的指标统计往往难以发挥数据价值。像我们常见的数据对比分析方法有同比、环比、占比等一系列分析指标,那是不是所有的数据业务场景都可以直接进行套用分析呢?比如我们统计企业2018年1月29日的同比流量,是不是可以直接对比2017年1月29日?表面上看好像2017年1…

大家好,又见面了,我是你们的朋友全栈君。

数据分析工具:FineBI 商业智能工具http://www.finebi.com/

数据分析的本质其实是做数据对比分析,没有数据对比,单一的指标统计往往难以发挥数据价值。像我们常见的数据对比分析方法有同比、环比、占比等一系列分析指标,那是不是所有的数据业务场景都可以直接进行套用分析呢?比如我们统计企业2018年1月29日的同比流量,是不是可以直接对比2017年1月29日?表面上看好像2017年1月29日确实就是2018年1月29日时间层面上的同比日期,但是我们仔细对比查看这两个日期会发现2018年1月29日是周一,2017年1月29日确是周日。对于很多行业的企业来说,非工作日和工作日的数据往往是有很大差异的,这个时候单纯从日期层面来进行对比其实是没有什么意义的,选择对比同是周一的2017年1月30日的流量数据进行同比计算可能会更加有价值。
目前互联网行业做搜索引擎的有Google、百度,做综合门户的雅虎、新浪,做即时通讯的主要是腾讯,电子商务方面的主要是阿里、京东、亚马逊等。不论是以上的哪家互联网企业,往往都需要有一套引流、转化、消费、留存方面的运营策略,平台的流量数据分析往往都是非常重要的。

互联网流量数据分析方面,总结主要有如下四种数据常用分析方法:

1.对比分析流量规律,针对时段进行企业服务以及推广活动调整;
2.对比分析结构占比,指导进行定向群体营销推广
3.对比分析异常情况,及时追责并且进行调整;
4.对比追踪活动流量变化,总结活动效果经验以便后续有针对性调整。

一、用户浏览量周分布

对于互联网企业来说,流量数据往往都会呈工作周相关。对此,我们可以先宏观地统计出周一到周日中的总的平台流量柱状图数据对比情况。首先我们可以仔细观察工作日和非工作日的数据,发现周末的平台流量较工作日流量要高,这在互联网行业来说都是一个比较普遍的现象。
在这里插入图片描述
用户流量的周分布规律之后,我们就大致有一个推广方向,周末休息时间用户群体较大,相较于工作日可以投入更多的和丰富有吸引力推广活动来进行新用户引流和老用户活跃。
接着我们可以进行下一步思考,那工作日和周末我们的活动推广时间如何制定?有的同学们可能会觉得全天活动都可以,不需要关注具体的活动时间。但是对于互联网行业来说,每个时间段的推广费用都是较为昂贵的,我们完全可以分析出工作日和周末的用户流量趋势,进行有针对性的时间段投入推广,通过更小的成本获取到更多的用户流入。
首先是工作日的时间段流量统计分布,我们通过BI工具分时间段作图得到如下所示的流量分布图。可以看出,工作日的流量主要集成在每日的9点(上班时间)、13点(午餐时间)、20点(晚间娱乐休息时间),那么在得到这样的一些用户流量规律之后,便可以在这些用户活跃高峰期时间段有针对性对白领群体多做一些相关商品推广活动,以实现最小时间成本和推广费用最大化用户引流效果。
在这里插入图片描述
再来看周末的各时间段流量分布走势,和工作日所不同的是,周末的流量早高峰期延后到了10点,这可能和各位小伙伴们周日作息较晚有关(同学们周末都是几点起床呢),除此之外,晚上的流量高峰退潮期也有延后。针对与周末用户流量分布的特性,互联网企业在周末时可以将活动开始时间和活动结束时间都适当进行延后,这个时候不能再套用工作日制定好的活动时间计划了,因为符合用户群体作息规律的推广促销活动才能达到更好的效果。
在这里插入图片描述

二、推广渠道流量分布

对于互联网行业的推广渠道分布主要分为三级渠道:线上渠道、线下渠道、新媒体营销等等。对比分析每个渠道对企业所带来的价值占比差异,以指导制定有针对性营销策略。
在这里插入图片描述
如上图所示,由于推广渠道是分多层级的,我们通过BI工具的多层饼图进行数据的分析统计再合适不过了。分析下图的数据我们可以看出,首先是一级渠道的主要战斗力来自于新媒体营销,当今的微信、今日头条等社交媒介社区时代受众广泛,用户群体非常庞大,是公司需要投入主要成本进行推广的。其次线上渠道的效果也不容忽视,对于互联网企业来说,做好百度、Google等SEO搜索引擎关键词推广也是很重要的一部分工作。相较于线上渠道和新媒体营销,线下渠道说所需要的经费和时间、人力成本较大,受众又相对较小,所以此类活动往往针对核心粉丝进行运营即可。
在这里插入图片描述

三、各月份指标对比走势

在分析各月份指标对比走势数据之前,先简单介绍下互联网营销常用的几个指标概念:
1.浏览量(pv)
2.访问次数(visits)
3.访客数(uv)
以上三个基础指标常用来衡量流量数据的多少。另外平均访问深度(总浏览量/访问次数)、平均停留时间(总停留时间/总浏览量)、跳失率(跳出次数/访问次数),这三个指标通常可用于衡量流量指标的优劣性。
在这里插入图片描述
我们仔细分析上图中的平台流量指标,可以发现10月份是2017全年的流量高峰期,应该跟企业在国庆黄金假期所做的促销引流活动有关。浏览量、跳失次数、访问次数分别为4941、1290、2182,对比计算可得到跳失率为59.12%,明显低于其他时间段的跳失率,说明10月份的活动效果还不错,其经验对以后的营销推广可以起到参考作用。
在这里插入图片描述
最后是访问深度用户群体分布分析(跳失率=跳出次数/访问次数),我们通过BI工具将企业的VIP用户、老用户、新用户分别进行分时间段的用户群体访问深度分析统计。总体来说可以发现平台的VIP用户访问深度较老用户以及新用户稍微高些,但是不是太明显,说明平台运营的VIP这部分群体的活跃度还有待提升。同时,平台老用户访问深度和新用户更是相差无几,公司对于用户这方面的活跃运营明显需要加油了,建议将平台的部分忠诚度较高的老用户以VIP用户组建起来,共建平台生态圈,增加整体的用户活跃度。同时可以向老用户以及VIP用户实施一些优惠政策,如定向商品折扣、根据用户画像进行喜好商品特惠推送等。

数据分析的思路

1、基于用户的使用路径,包括用户的操作(点击、返回、退出)、流失(如:注册流程增加一个跳转,用户的流失率)、停留时间(例如用户在某个商品的浏览时间)
2、基于产品的节点,包括用户转化率和占比,例如:通过某一个推广页面,新注册的用户与浏览用户的比例,付费用户与非付费用户的比例

数据分析的方法类型

定性分析:是对事物性质的归纳,用来说明某个用户行为、功能点的定义和说明,对事物作出一个假设。
定量分析:是对事物数量的统计,是对假设的验证。
定性分析和定量分析往往是结合在一起使用的。举个例子。用户对产品的喜爱程度可以分为喜欢、一般、不喜欢三种状态。我们可以通过用户访谈,询问用户的使用感受,根据其回答将其划分为喜欢、一般、不喜欢这三类用户,这就是定性分析。如果,我们认定有超过50%用户喜欢该产品可认为产品的用户体验做得比较好,随后我们通过大量的问卷调查发现有60%的用户喜欢这个产品,30%持中立态度,10%不喜欢该产品,由此可以认为产品的用户体验做得不错,这就是定量分析。

数据的来源

数据分析的基础是数据,不仅仅包括自己产品的数据,也包括竞争对手和行业数据。
对于自己产品,一般可以从服务器日志和数据库中获取用户注册登录、产品使用情况等数据,也可以通过用户调研和用户反馈(论坛、交流群、投诉)获得。
竞争对手的数据,我们可以通过第三方网站或系统获知,如百度指数、应用商场下载数量等等,也可以查找竞争对手的公司财务来获取一些有价值的信息。
另外,我们还可以通过行业的媒体了解行业趋势,如阅读行业分析报告、热点大数据、行业融资情况等。

数据分析的指标

数据分析的指标有转化率、任务完成率、当前使用用户数、流失用户数、回访用户数、活跃用户数、新用户比例、用户流失率等。其中,转化率、活跃用户数、新用户比例、用户流失率是相对重要的分析指标。
转化率可以分为上一步转化率和总体转化率。上一步转化率指前一个页面或操作进入下一个页面的用户比例,如:加入购物车与提交订单的比例。
整体转化率前某一个页面或操作与最初(浏览)用户的比例,如:提交订单数与浏览数的比例。
活跃用户数指经常使用产品的用户数,每个公司对“经常“的定义会有所不同。活跃用户越多,产品价值越高。活跃用户数用来向量运营的现状。
流失用户数用来分析产品是否有能力留住新用户、是否有被淘汰的风险。
新用户比例是反映产品发展重要指标。新用户是产品发展的动力,老用户是产品生存的根基。我们要做的是:保持老用户数量的稳定增长前提下,提升新用户所占比例。
用户流失率反映产品保留用户的能力。在产品的成长阶段,新用户比例会大于用户流失率;在衰退阶段,新用户比例则会低于用户流失率;在稳定阶段,则新用户比例与用户流失率持平。

单纯地判断哪个工具好,是没有意义的,还要看你用来解决什么样的问题?

1、分析工具:Excel、SPSS、Tableau等属于分析工具类;

2、分析语言:Python、R等属于分析脚本语言。

分析工具类,还可以分为统计工具和挖掘工具:

1)统计工具:比如像Excel/Tableau/PowerBI都属于统计工具,此类工具的很简单,是基于统计(比如分类汇总)的分析工具,通过统计指标,查看业务的规律、变化、趋势等等,来作出对业务的判断并给出合适的业务策略。所以,此类工具侧重于业务的描述性分析(业务规律、业务变化、业务周期),常用有的分析方法有:对比分析、分布分析、结构分析、趋势分析等等。

2)挖掘工具:像SPSS/SAS类就属于挖掘工具。此类挖掘工具侧重探索隐藏得比较深的业务知识和模式,挖掘工具侧重于业务的影响因素分析、预测性分析等等,讲究分析模型(比常规的分析方法要复杂),在分析模型中不见得有统计指标,而是模式。
常用的分析模型:影响因素分析(相关/方差/列联分析)、数据预测模型(回归预测/时序预测)、分类预测模型(决策树、神经网络、支持向量机等),当然还其它更多的模型,比如聚类、关联等等。
理论上,高级的数据挖掘工具也能够实现统计分析功能,即Excel能够实现的,理论上SPSS也可以实现。但坦白地说,用挖掘工具来做统计工具分析,其效率反而没有统计工具高;而且操作比较复杂,可视化功能也相对较差。而且,大多数公司,都是在用Excel/SQL来做数据分析。

分析语言Python/R

分析语言本身也可以看作是一种特殊的分析工具。只是这种分析工具与Excel/SPSS相比不一样,Excel/SPSS只需要通过拖拉就能够实现数据分析结果,但Python/R则需要通过写脚本写代码的方式来运行分析,所以用Python/R做数据分析就比较复杂。
作为工具,Excel/SPSS中已经内置和封装了很多常用的分析方法、分析模型,所以你不需要花太多的时间去弄明白是怎样实现的,甚至你有时不需要知道数据公式和原理(如果知道的话就更好了),你只需要聚焦在业务层面,就可以实现业务数据分析,得到良好的分析结果。所以,使用工具的优点在于:简单易操作,不需要掌握深奥的理论知识。但是,正因为工具封装了具体的实现过程,无法对分析模型进行修改或自定义,如果公司需要一些特殊的分析模型,或者需要对原有的模型进行修改或优化,而分析工具又不支持的话,那么此时你就得要使用分析语言Python来实现自定义的分析流程了。
当你使用Python分析语言时,你就得必须了解分析模型的数学原理及实现过程,还得要掌握编程的一系列技能,才能够胜任Python/R的分析工作。同时,你得花大量的时间在如何实现模型上,而无法真正聚焦在业务问题的解决上了。
所以,比起用分析工具,用Python的好处是可以任意修改或定制化模型、可以自动化实现分析流程,但坏处也是显而易见的(分析复杂、周期较长、技能要求高)。你拥有了定制化,就失去了简洁;你拥有了超强的功能,就增加了复杂度,此即有得就必有失了。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/130170.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • R 笔记 prophet[通俗易懂]

    R 笔记 prophet[通俗易懂]0理论部分论文笔记:ForecastingatScale(Prophet)_UQI-LIUWJ的博客-CSDN博客Prophet是一种基于加法模型预测时间序列数据的程序,其中非线性趋势、季节性以及假日效应相匹配。它最适用于具有强烈季节性和有几个季节历史数据的时间序列。Prophet对缺失数据和趋势变化具有鲁棒性,并且通常可以很好地处理异常值。…

  • 多项分布和的分布_bernoulli多项式

    多项分布和的分布_bernoulli多项式摘要纠错编辑摘要二项分布的典型例子是扔硬币,硬币正面朝上概率为p,重复扔n次硬币,k次为正面的概率即为一个二项分布概率。(严格定义见伯努利实验定义)  把二项分布公式再推广,就得到了多项分布。比如扔骰子,不同于扔硬币,骰子有6个面对应6个不同的点数,这样单次每个点数朝上的概率都是1/6(对应p1~p6,它们的值不一定都是1/6,只要和为1且互斥即可,比如一个形状不规则的骰子),重复扔n

    2022年10月11日
  • 大数据建模流程之数据处理[通俗易懂]

    大数据建模流程之数据处理[通俗易懂]原文链接数据是建模的基础,也是研究事物发展规律的材料。数据本身的可信度和处理的方式将直接决定模型的天花板在何处。一个太过杂乱的数据,无论用多么精炼的模型都无法解决数据的本质问题,也就造成了模型的效果不理想的效果。这也是我们目前所要攻克的壁垒。但是,目前我们市场对的数据或者科研的数据并不是完全杂乱无章的,基本都是有规律可循的,因此,用模型算法去进行科学的分析,可以主观情绪对决策的影响。所以数据是非常重要的一部分。那么,接下来我们就详细说一下数据的处理与分析。一.数据的基本特征当看到数据的时候,首要做的并

  • process returned -1073741571_0x0000007a电脑蓝屏

    process returned -1073741571_0x0000007a电脑蓝屏前言C++运行报错:Processreturned-1073741819(0xC0000005)是真的坑!!!申请的内存没有释放new后必须deletemalloc后必须free创建内核对象(比如CreateFile,CreateMutex,CreateThread),后必须释放内核对象句柄.创建内存映射文件,CreateFileMapping,MapViewOfFile后必须…

  • Kafka 删除topic_kafka自动创建topic

    Kafka 删除topic_kafka自动创建topic2019独角兽企业重金招聘Python工程师标准>>>…

    2022年10月16日
  • dirsearch使用_elasticsearch fielddata

    dirsearch使用_elasticsearch fielddatadirsearch配置1.下载地址:https://github.com/maurosoria/dirsearch/archive/master.zip2.安装3.7以上版本python或者gitclonehttps://github.com/maurosoria/dirsearch.gitcddirsearchpip3install-rrequirements.txtpython3dirsearch.py-u<URL>-e<EXTENSI

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号