使用flink(blink)进行用户行为分析

  • Post author:
  • Post category:其他


##Blink

Blink是阿里云在Apache Flink基础上深度改进的实时计算平台,同Flink一致Blink旨在将流处理和批处理统一,但Blink相对于社区版Flink,在稳定性上有很多优化,在某些场景特别是在大规模场景会比Flink更加稳定。Blink的另一个重大改进是实现了全新的 Flink SQL 技术栈,在功能上,Blink支持现在标准 SQL 几乎所有的语法和语义,在性能上,Blink也比社区Flink更加强大,特别是在批 SQL 的性能方面,当前 Blink 版本是社区版本性能的 10 倍以上,跟 Spark 相比,在 TPCDS 这样的场景 Blink 的性能也能达到 3 倍以上。[传送门]

(

https://data.aliyun.com/product/sc?spm=5176.10695662.1131226.1.6d726a8cByTmTZ

)

##场景

今天我们做o2o有很多的线下场景需要基于用户的行为进行分析,比如 我们在商场入门口装了一个摄像头,可以通过摄像头识别商场进入的人脸,和出去时候的人脸,这样形成了2条数据。商场想统计下,每个用户在商场的逗留时间。这里面就出现了一种pattern的模式,就是当用户进门和出门这两个事件都发生的时候,激发某个动作(事件)。比如在这里是在用户出门的时候将用户进门时间和出门时间的差值相减,并存储在tablestore当中。然后可以通过分析汇总算出今日用户在商场的平均逗留时间,继而可以统计出当月,当年的平均逗留时间,等等,促使商家提升总体运营水平。

像上面这种场景稍微的进行一下更改就有很多场景可以使用。比如 我们现在经常使用短视频,那么我们怎么分析用户在某个短视频的停留时间呢?就可以在用户进入视频和出了视频产生一个事件,然后用上面这个语法就能分析出来,每个用户在视频上面的停留时间,然后根据排个实时排行榜,然后进行推荐。排行榜的架构,可以看我的上一篇文章,如何构建实时的汇总数据。

这里面 用户进入商场 和用户走出商场是两个用户行为,当它们组合在一起时候就有了奇妙的意义。blink在分析此类用户行为方面提供了极其强大的模式匹配功能。下面我以这个场景,详细描述下如果使用。

#架构图

image.png

用户行为表

image.png

用户逗留时间表

image.png

用户行为表用来记录摄像头识别的用户进门和出门的产生的记录,用户逗留时间表用来记录每个用户的逗留时间。

以用户行为表为blink的源表,用户逗留时间表为结果表。这里使用tablestore为存储数据库。为什么使用tablestore,因为tablestore的通道和blink能进行无缝的集成,tablestore的存储成本非常的低廉,扩展性又非常的好。有想了解tablestore的同学,点击

传送门

,当然也可以换成hbase等类似的数据库。

##源表

CREATE TABLE test_source_user_action (

–id

id BIGINT,

– 记录日期

record_date BIGINT,

–用户id


user_id

BIGINT,

–数据触发时间

prd_time BIGINT,

–数据行为类型

opt_type varchar,

–计算列

ts AS to_timestamp(prd_time),

WATERMARK FOR ts AS withOffset(ts, 1000),

primary key (record_date,

user_id

, prd_time,opt_type)

)

##结果表

CREATE TABLE ots_result_user_play_time (

–进入id

inid BIGINT,

–出去id

outid BIGINT,

–记录日期

record_date BIGINT,


user_id

BIGINT,

play_time BIGINT,

primary key (record_date,

user_id

)

)

###插入数据

insert into ots_result_user_play_time

SELECT

inid,

outid,

start_tstamp,


user_id

,

play_time

FROM test_source_user_action MATCH_RECOGNIZE (

PARTITION BY

user_id


ORDER BY ts

MEASURES


e1.id

as inid,


e2.id

as outid,

e1.record_date AS start_tstamp,

(e2.prd_time-e1.prd_time) AS play_time

ONE ROW PER MATCH

PATTERN (e1->e2) WITHIN INTERVAL ‘10’ Hour

DEFINE

e1 AS e1.opt_type =‘in’,e2 as e2.opt_type=‘out’

)

其中最关键的是最后这块代码

解释一下代码

DEFINE,定义的是模式匹配的变量,意思你要用哪列,什么条件的数据来进行条件匹配

PATTERN 就是变量的匹配模式,e1->e2的意思是指 进门后面如果出现了出门就匹配成功

MEASURES 里面是要在select中显示的数据列

具体文档看传送门(

https://help.aliyun.com/document_detail/73845.html?spm=a2c4g.11186631.6.648.61b655c4rqSiqn

),

最后看文章永远是一知半解,赶紧注册一个阿里云的账号来使用一下blink,tablestore吧。大数据时代最强的实时计算工具,最具扩张性的bigtable。


https://promotion.aliyun.com/ntms/yunparter/invite.html?userCode=vrecz0f8



版权声明:本文为xiaofeixia__9999原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。