-
Notifications
You must be signed in to change notification settings - Fork 3
HDFハンズオン 5: 分析結果を保存
Koji Kawamura edited this page Mar 7, 2017
·
5 revisions
Stormで処理したリアルタイム分析の結果をKafkaトピックから受信し、ファイルシステムに保存しましょう。
Reporting
ProcessGroup内にプロセッサを追加します。
- ConsumeKafka_0_10:
report
トピックからメッセージを受信します - UpdateAttribute:
filename
Attributeを設定します - PutFile: ファイルシステムへFlowFileを出力します
もうRelationshipの設定にも慣れてきたのではないでしょうか。
- 正常系をつなぐ
- 異常系を別ルートへ
- 不要なものはAuto-Terminate
です。
Property | Value |
---|---|
Kafka Brokers | 0.hdf.aws.mine:6667 |
Topic Name(s) | report |
Group ID | nifi |
Property | Value | Memo |
---|---|---|
filename | latest.json | |
mime.type | application/json | 必須ではありませんが、設定しておくとFlowFileのPreviewがちゃんと見えたりして便利です |
Property | Value | Memo |
---|---|---|
Directory | /opt/hdf-handson/report | |
Conflict Resolution Strategy | replace | すでに同一のファイル名がある場合は上書きします |
ターミナルを2つ開きます。それぞれ、サーバにSSHでログインし、
一つ目のターミナルでは、次のコマンドでNiFiにHTTPでデータを登録しましょう。curlだと値を変えながら実行するのが多少面倒なので、スクリプトを用意しておきました:
# /opt/hdf-handson/bin/post-data <name> <age>
/opt/hdf-handson/bin/post-data A 35
もう一つのターミナルでは、watchコマンドでファイルを監視しておきましょう:
watch cat /opt/hdf-handson/report/latest.json