1.1、Flume 定义

ApacheFlume是一个分布式的、可靠的、可用的系统,用于有效地收集、聚合和将大量日志数据从许多不同的源转移到一个集中的数据存储区。
ApacheFlume的使用不仅限于记录数据聚合。由于数据源是可定制的,Flume可以用来传输大量事件数据,包括但不限于网络流量数据、社交媒体生成的数据、电子邮件消息以及几乎任何可能的数据源。
ApacheFlume是Apache软件基金会的顶级项目。

1.2 Flume组成架构

Flume组成架构如图1-1,图1-2所示:

1.2.1.Agent

Agent是一个jvm进程,它以事件的形式将数据从源头送至目的,是Flume数据传输的的基本单元。
Agent主要有3个部分组成,Source、Channel、Sink。

1.2.2Source

Source是负责接收数据到Flume Agent的组件。Source组件可以处理各种类型、各种格式的日志数据,包括avro、thrift、exec、jms、spolling、directory、netcat、sequence generator、syslog、http、legacy。

1.2.3Channel

Channel是位于Source和Sink之间的缓冲区。因此,Channel语序Source和Sink运作在不同的速率上。Channel是线程安全的,可以同时处理几个Source的写入操作和几个Sink的读取操作。
Flume自带两种Channel:Memory Channel和File Channel。
Memory Channel是内存中的队列。Memory Channel在不需要关心时就丢失的情景下适用。如果需要关心数据丢失,那么Memory Channel就不应该使用,因为程序死亡、机器宕机或者重启都会导致数据丢失。
File Channel将所有时间写到磁盘。因此在程序关闭或者机器宕机的情况下不会丢失数据。

1.2.4 Sink

Sink不断的轮询Channel中的事件且批量的移除它们,并将这些实践批量写入到存储或索引系统、或者被发送到另一个Flume Agent。
Sink是完全事务性的。在从Channel批量删除数据之前,每个Sink用Channel启动一个事物。批量事件一旦成功写出到存储系统或下一个Flume Agent,Sink就利用Channel提交事物。事物一旦被提交,该Channel从自己的内部缓冲区删除事件。
Sink组件目的地包括hdfs、logger、avor、thrift、ipc、file、null、HBase、solr、自定义。

1.2.5 Event

传输单元,Flume数据传输的基本单元,以事件的形式将数据源投送至目的地。