summaryrefslogtreecommitdiff
path: root/properties/service_flow_config.properties
blob: 93384d215d108b9ee7dd025b62226ec8703e68d4 (plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
#--------------------------------地址配置------------------------------#

#管理kafka地址
#source.kafka.servers=10.224.11.14:9094,10.224.11.15:9094,10.224.11.16:9094,10.224.11.17:9094,10.224.11.18:9094,10.224.11.19:9094,10.224.11.20:9094,10.224.11.21:9094,10.224.11.22:9094,10.224.11.23:9094
source.kafka.servers=10.221.12.4:9094

#管理输出kafka地址
sink.kafka.servers=10.224.11.14:9094,10.224.11.15:9094,10.224.11.16:9094,10.224.11.17:9094,10.224.11.18:9094,10.224.11.19:9094,10.224.11.20:9094,10.224.11.21:9094,10.224.11.22:9094,10.224.11.23:9094

#--------------------------------HTTP------------------------------#
#kafka 证书地址
tools.library=D:\\workerspace\\dat\\

#网关的schema位置
schema.http=http://10.224.11.244:9999/metadata/schema/v1/fields/liveChart_session

#网关APP_ID 获取接口
app.id.http=http://10.224.11.244:9999/open-api/appDicList

#--------------------------------Kafka消费组信息------------------------------#

#kafka 接收数据topic
source.kafka.topic=SESSION-RECORD
#source.kafka.topic=test

#补全数据 输出 topic
sink.kafka.topic=test-result

#读取topic,存储该spout id的消费offset信息,可通过该拓扑命名;具体存储offset的位置,确定下次读取不重复的数据;
group.id=mytest-211119-1

#生产者压缩模式 none or snappy
producer.kafka.compression.type=none

#生产者ack
producer.ack=1

#--------------------------------topology配置------------------------------#

#consumer 并行度
source.parallelism=1

#map函数并行度
parse.parallelism=2

#first count 函数并行度
first.window.parallelism=2

#second count 函数并行度
second.window.parallelism=2

#producer 并行度
sink.parallelism=1

#app_id 更新时间,如填写0则不更新缓存
app.tick.tuple.freq.secs=0

#聚合窗口时间
count.window.time=15