消息队列之kafka(整合flume)
补充:在flume的的lib中已经有了kafka的依赖包,所以直接使用flume的配置文件即可。
这里举出kafka+flume的典型场景:(Kafka-----sink)
创新互联主要从事成都做网站、成都网站制作、成都外贸网站建设、网页设计、企业做网站、公司建网站等业务。立足成都服务金沙,十年网站建设经验,价格优惠、服务专业,欢迎来电咨询建站服务:13518219792
source :netcat
channel:memory
sink:kafka sink
netcat-kafka.conf
#别名
a1.sources=s1
a1.channels=c1
a1.sinks=k1
#source
a1.sources.s1.type=netcat
a1.sources.s1.bind=192.168.5.0
a1.sources.s1.port=6666
#channel
a1.channels.c1.type=memory
#sink
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.topic = kafka_test #传入的的主题
a1.sinks.k1.kafka.bootstrap.servers = hadoop02:9092 #kafka集群入口
a1.sinks.k1.kafka.producer.acks = 1 #消息确认级别
#指定压缩的类型
a1.sinks.k1.kafka.producer.compression.type = snappy
a1.sources.s1.channels=c1
a1.sinks.k1.channel=c1
最后启动flume的配置文件即可:bin/flume-ng agent -n a1 -c conf -f conf/myconf/netcat-kafka.conf -Dflume.root.logger=INFO,console
官网地址:http://flume.apache.org/FlumeUserGuide.html#kafka-sink
当前文章:消息队列之kafka(整合flume)
标题URL:http://scyanting.com/article/gddejo.html