如果是 SDH 架构(分析云 3.0.0 及以上套餐),请参考文档 SDH 架构预处理文档,新老架构下的预处理核心逻辑其实是一样的,只有部分命令参数有变化,为了能让文档更简洁直观,分为了两个独立的文档。
Sensors Analytics 从 1.14 开始为用户提供新版本的"数据预处理模块"(之后简称为预处理模块),即为 SDK 等方式接入的数据(不包括批量导入工具方式)提供一个简单的 ETL 流程,使数据接入更加灵活。
可以使用“数据预处理模块”处理的数据来源包括:
- SDK(各语言 SDK 直接发送的数据);
- LogAgent;
- FormatImporter;
使用 BatchImporter 和 HdfsImporter 批量导入数据的情况除外。
例如 SDK 发来一条数据,传入“数据预处理模块”时格式如下:
{
"distinct_id":"2b0a6f51a3cd6775",
"time":1434556935000,
"type":"track",
"event":"ViewProduct",
"project": "default",
"ip":"123.123.123.123",
"properties":{
"product_name":"苹果"
}
}
这时希望增加一个字段 product_classify
,表示产品的分类,可通过“数据预处理模块”将数据处理成:
{
"distinct_id":"2b0a6f51a3cd6775",
"time":1434556935000,
"type":"track",
"event":"ViewProduct",
"project": "default",
"properties":{
"product_name":"苹果",
"product_classify":"水果"
}
}
如果您是由 1.13 迁移过来的,可以参考。旧版预处理升级指南
相比之前版本提供的预处理模块,新版本的预处理模块提供了批量处理的能力,并且可以支持添加多个预处理模块。因此,新版本的预处理接口相比之前较为复杂。一个预处理模块需要使用到两个 Java 接口com.sensorsdata.analytics.extractor.common.RecordHandler
与com.sensorsdata.analytics.extractor.processor.BatchProcessor
。这两个接口的定义如下
RecordHandler.java
package com.sensorsdata.analytics.extractor.common;
public interface RecordHandler {
/**
* @return 获取到具体到每一条的日志
*/
String getOriginalData();
/**
* 将源数据不进行修改直接传输给下一个预处理或者最终交给神策
*/
void send();
/**
* 当一条数据会生成多条数据时,应使用同一个 RecordHandler 调用多次
* 当对于源数据不进行修改的时,则不需要调用该方法
*
* @param data 修改后的数据
*/
void send(String data);
/**
* @return 发送数据中的项目名,没有数据则为 null
* 需要注意的是,这里获取的项目名称,并不一定是最终的项目。
* 神策内部判断某条数据项目的逻辑为:
* 1. 判断数据的 json 中是否有 project 字段,如果有则使用该字段
* 2. 当数据中获取不到时,则使用该字段返回的项目名,也就是数据接收地址的项目名称
* 3. 如果上述都没有,则使用 default 项目
*/
String getNginxLogProject();
/**
* @return 发送数据端的 user agent 的值
*/
String getNginxUserAgent();
/**
* @return 发送数据端的 ip 值
*/
String getNginxLogIp();
/**
* @return nginx 接收到数据时的服务器时间戳
*/
long getNginxLogTime();
/**
* @return 发送数据时,cookie 的值,没有数据则为 null
*/
String getNginxLogCookie();
/**
* @return 发送数据使用的 token,没有数据则为 null
*/
String getImportToken();
}
BatchProcessor.java
package com.sensorsdata.analytics.extractor.processor;
import com.sensorsdata.analytics.extractor.common.RecordHandler;
import java.util.List;
public interface BatchProcessor {
/**
* @param recordHandlerList 批量处理的记录
* @usage 通过调用 {@link com.sensorsdata.analytics.extractor.common.RecordHandler#getOriginalData()} 来获取源数据
* 通过调用 {@link com.sensorsdata.analytics.extractor.common.RecordHandler#send(java.lang.String)} 将生成好的数据发送出,如果一条记录生成多条,则需要调用多次。
*/
void process(List<RecordHandler> recordHandlerList);
}
其中只有com.sensorsdata.analytics.extractor.processor.BatchProcessor
需要实现。在 BatchProcessor 的 process 方法中,它的入参是一批需要处理的数据对象。
* 可以通过`com.sensorsdata.analytics.extractor.common.RecordHandler#getOriginalData()`方法来获取到 一条符合 [Sensors Analytics 的数据格式定义](https://manual.sensorsdata.cn/sa/latest/zh_cn/%E6%95%B0%E6%8D%AE%E6%A0%BC%E5%BC%8F-185863996.html)的 JSON 文本,例如概述中的第一个 JSON。RecordHandler 中还提供其他方法,可以获取和日志相关的其他数据。
* 当希望将处理完后的数据交给下一个预处理或者交由神策处理时,可以通过调用`com.sensorsdata.analytics.extractor.common.RecordHandler#send(java.lang.String)`实现,如果需要有一条数据产生多条数据时,则调用多次;如果需要抛掉该条数据,则不用进行调用。
* 由于处理的过程中是批量处理,如果在处理的过程中,抛出了异常,会导致之后数据都被抛出。因此,建议保证程序的正确性。
我们需要将编写好预处理模块打包安装到神策的环境中
本 repo 附带的样例使用了 Jackson 库解析 JSON,并使用 Maven 做包管理,编译并打包本 repo 代码可通过:
git clone git@github.com:sensorsdata/preprocessor-sample.git
cd preprocessor-sample
mvn clean package
执行编译后可在 target
目录下找到 preprocessor-sample-1.0-SNAPSHOT.jar
。
preprocessor-tools 使用用于测试、部署预处理模块的工具,只能运行于部署 Sensors Analytics 的机器上。
将编译出的 JAR 文件上传到部署 Sensors Analytics 的机器上,例如 preprocessor-sample-1.0-SNAPSHOT.jar
。
切换到sa_cluster
账户:
sudo su - sa_cluster
直接运行 preprocessor-tools 将输出参数列表如:
[sa_cluster@sensors-server ~]$ sdfadmin preprocessor
Usage: <main class> [options] [command] [command options]
Options:
-h, --help
帮助,(具体可参见 https://github.com/sensorsdata/preprocessor-sample,如果您在 1.14
之前的版本配置过预处理,请务必查看该文档)
Default: false
Commands:
info 查看所有安装的预处理
Usage: info
modify 修改预处理的配置
Usage: modify [options]
Options:
-i, --id
进行配置的预处理 id 列表, 多个 id 请以逗号隔开。只有在指定了 --amount/-a 或 --timeout/-t
时,才需要指定该参数
-a, --amount
预处理模块一次处理中数据的最多的条数,请通过 --id/-i 参数指定要修改的预处理
-t, --timeout
将数据交给下一个预处理的最长等待时间(单位为秒),请通过 --id/-i 参数指定要修改的预处理
-o, --order
新的预处理模块处理顺序,填写预处理模块 id 列表,以逗号隔开。请填写上所有预处理模块的 id
-p, --path
要更新的 JAR 包的位置,可以是文件也可以是目录,但会覆盖之前传输的,所以请全量上传
install 安装预处理
Usage: install [options]
Options:
-c, --class
添加新的预处理。填写类的全名,可以填写多个,请以逗号隔开。如果只是更新 JAR 包而类名不变,请勿指定该参数
* -p, --path
要上传 JAR 的位置,可以是文件也可以是目录,但会覆盖之前传输的,所以请全量上传
* --when_exception_use_original
当 ExtProcessor 抛异常时导入原始数据而不是直接抛弃, yes 表示预处理遇到异常时使用原始数据导入, no
表示遇到异常时抛弃该条数据
Possible Values: [YES, NO]
* --add_in_track_signup
是否将预处理应用于 track signup 的单独处理流中. yes 表示在打开 track signup
的处理流的前提下,会同时将预处理的内容也添加到 track signup 流中, no 表示在 track signup
流中不进行预处理。如果您的预处理会影响到 track_signup 的结果(例如,会修改 distinct_id
等),请务必打开此开关
Possible Values: [YES, NO]
--install-old-preprocessor
安装旧版本的预处理
Default: false
--with-extractor-stop
在卸载预处理模块后,不自动启动 Extractor
Default: false
run 运行指定的预处理方法, 以标准输入的逐行数据作为参数输入, 将返回结果输出到标准输出
Usage: run [options]
Options:
* -p, --path
包含预处理的 JAR 的位置
-c, --class
实现预处理的类全名,可以填写多个类名(以逗号隔开),若不填写,则使用已经安装神策的预处理类
run_with_real_time_data 用本机实时的数据作为输入, 将返回结果输出到标准输出
Usage: run_with_real_time_data [options]
Options:
* -p, --path
包含预处理的 JAR 的位置
-c, --class
实现预处理的类全名,可以填写多个类名(以逗号隔开),若不填写,则使用已经安装神策的预处理类
* --when_exception_use_original
当 ExtProcessor 抛异常时导入原始数据而不是直接抛弃, yes 表示预处理遇到异常时使用原始数据导入, no
表示遇到异常时抛弃该条数据
Possible Values: [YES, NO]
uninstall 卸载预处理
Usage: uninstall [options]
Options:
-c, --class
实现预处理的类全名,可以填写多个类名(以逗号隔开)
-i, --id
预处理 id 列表, 多个 id 请以逗号隔开
-a, --all
清除之前所有的预处理
Default: false
--with-extractor-stop
在卸载预处理模块后,不自动启动 Extractor
Default: false
使用run
方法加在 JAR 并实例化 Class,以标准输入的逐行数据作为预处理函数的输入,并将处理结果输出到标准输出。其中 -c, --class 为可选参数,若不填写,默认使用之前通过install
安装的所有预处理模块进行处理;否则,会使用 -c 中传输的 class list 作为预处理模块,处理顺序与填写时顺序相同。
sdfadmin preprocessor \
run \
--path preprocessor_jar_dir/
--class com.sensorsdata.analytics.extractor.processor.SamplePreProcessor, com.sensorsdata.analytics.extractor.processor.SamplePreProcessor2
使用方法与run
方法相同,均需要提供 JAR 包的地址与所有需要测试的预处理的 Class。与run
方法不同的是,run_with_real_time_data
的输入数据真实的环境中的线上数据,并且最后会将输入与输出都输出到标准输出中。
sdfadmin preprocessor \
run_with_real_time_data \
--path preprocessor_jar_dir/
--class com.sensorsdata.analytics.extractor.processor.SamplePreProcessor, com.sensorsdata.analytics.extractor.processor.SamplePreProcessor2
安装分为两步,首先需要将打包后生成的 JAR 包安装到神策服务器中,然后需要将所有编写的预处理模块 Class 名称配置存储神策服务器中。
使用 preprocessor-tools 的install
方法可以上传打包后的 JAR 包并且可以将每一个预处理模块的主类安装到神策。示例命令如下:
sdfadmin preprocessor \
install \
--path preprocessor_jar_dir/ \
--class com.sensorsdata.analytics.extractor.processor.SamplePreProcessor,com.sensorsdata.analytics.extractor.processor.SamplePreProcessor2
- 每次上传会将之前上传的所有的 JAR 包清理掉,因此如果有多个 JAR 包需要上传,请将这些 JAR 包放到一个目录里,通过指定目录将他们上传
- 建议先上传 JAR 包,再安装这些预处理类
- 集群版安装预处理模块会自动分发,不需要每台机器操作;
在新的预处理模块的模式中,多个预处理模块会按照一定顺序对日志进行处理,并且每个预处理模块一次会批量处理一批数据。可以通过 preprocessor-tools 的info
方法查看所有预处理模块的细节,可以执行如下命令:
sdfadmin preprocessor info
输出的日志的关键部分如下:
2019-06-13 15:04:45 INFO PreProcessorTool: PreProcessorTool started.
2019-06-13 15:04:52 INFO PreProcessorTool: -----All PreProcessors are as follow-----
2019-06-13 15:04:52 INFO PreProcessorTool:
{"id":1,"class_name":"com.sensorsdata.analytics.extractor.processor.SamplePreProcessor","batch_process_num":30,"batch_prcess_timeout":1,"handle_order":1}
{"id":2,"class_name":"com.sensorsdata.analytics.extractor.processor.SamplePreProcessor2","batch_process_num":30,"batch_prcess_timeout":1,"handle_order":2}
2019-06-13 15:04:52 INFO PreProcessorTool: PreProcessor id list(order by process order): [2]
2019-06-13 15:04:52 INFO PreProcessorTool: -----------------------------------------
在日志中,每一行日志的 JSON 对象都表示一个预处理模块的配置,其中
id
是预处理模块的唯一标识class_name
是预处理模块的 Class 的名称batch_process_num
是预处理模块一次处理中数据的最多的条数。batch_prcess_timeout
是将数据交给下一个预处理的最长等待时间handle_order
所描述的是预处理模块处理的顺序,由小到大表示着预处理模块处理的有前到后。- 神策服务器当发现新的日志时,会积攒下来,当足够
batch_process_num
设置的条数时,会将积攒的数据移交给之后的预处理模块进行处理,当在batch_prcess_timeout
所设定的时间(单位是秒)依然没有新的数据进入,即使不足够batch_process_num
中设定的条数,依然会交给之后的预处理模块处理。
修改预处理的配置时,请使用 preprocessor-tools 的 modify
方法,具体使用命令如下:
-
如果要修改某个预处理模块的一次处理的最大条数时:
sdfadmin preprocessor \ modify \ --id 1 \ --amount 50
以上命令将 id 为 1 的预处理模块的一次处理的最大条数设定为了 50条。
-
如果要修改某一些预处理模块的最长等待时间时:
sdfadmin preprocessor \ modify \ --id 1,2 \ --timeout 3
以上命令将 id 为 1 与 2 的预处理模块的最长等待时间设定为了 3 秒。
-
如果要修改预处理模块处理属性时,直接指定新的预处理排序即可:
sdfadmin preprocessor \ modify \ --order 2,1
修改之后,数据会先通过 id 为 2 的预处理模块处理之后,才由 id 为 2 的预处理模块儿处理。
-
如果要更新预处理模块的 JAR 包是,可以直接上传新的 JAR 包
sdfadmin preprocessor \ modify \ --path preprocessor_jar_dir/
安装好预处理模块后,为了验证处理结果是否符合预期,可以开启 SDK 的 Debug 模式
校验数据。
- 使用管理员帐号登录 Sensors Analytics 界面,点击左下角
埋点
,在新页面中点击右上角数据接入辅助工具
,在新页面中点击最上面导航栏中的DEBUG数据查看
; - 配置 SDK 使用
Debug 模式
; - 发送一条测试用的数据,观察是否进行了预期处理即可;
若不再需要预处理模块,可以通过 ext-processor-utils 的 uninstall
方法卸载,执行如下命令:
sdfadmin preprocessor \
uninstall \
--class com.sensorsdata.analytics.extractor.processor.SamplePreProcessor, com.sensorsdata.analytics.extractor.processor.SamplePreProcessor2
- 若希望更新 JAR 包,请直接使用工具“安装”新的 JAR 包即可,不需要先进行卸载;
如果想要清空之前上传的 JAR 包,可以执行如下命令:
sdfadmin preprocessor \
uninstall \
--with_jar