一、Flume的概念:
    
    Flume是Cloudera提供的一个高可用,高可靠的,
    
     分布式的海量日志采集,聚合和传输的系统
    
    。Flumens基于流式架构,灵活简单。
    
    Flume最主要的作用就是实时的读取服务器本地磁盘的数据,然后上传到HDFS(虽然也可以直接从服务器本地上传,但是不是实时的)。
   
    二、Flume组成架构:
    
    
    
    
    
    
     
      1.Agent
     
    
    
    Agent是一个JVM进程,它以事件的形式将数据从源头送至目的,是Flume数据传输的基本单元。启动agent之后,进程名称:Application
    
    Agent主要有3个部分组成,Source、Channel、Sink。
    
    
     
      2.Source
     
    
    
    Source是负责接收数据到Flume Agent的组件。Source组件可以处理各种类型、各种格式的日志数据,包括avro、thrift、exec(execute)、jms、spooling directory、netcat(读取端口数据)、sequence generator、syslog、http、legacy。
    
    
     
      3.Channel
     
    
    
    Channel是位于Source和Sink之间的缓冲区。因此,Channel允许Source和Sink运作在不同的速率上。Channel是线程安全的,可以同时处理几个Source的写入操作和几个Sink的读取操作。
    
    Flume自带两种Channel:Memory Channel和File Channel。
    
    Memory Channel是内存中的队列。Memory Channel在不需要关心数据丢失的情景下适用。如果需要关心数据丢失,那么Memory Channel就不应该使用,因为程序死亡、机器宕机或者重启都会导致数据丢失。
    
    File Channel将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据。
    
    
     
      4.Sink
     
    
    
    Sink不断地轮询Channel中的事件且批量地移除它们,并将这些事件批量写入到存储、或者被发送到另一个Flume Agent。
    
    Sink是完全事务性的。在从Channel批量删除数据之前,每个Sink用Channel启动一个事务。批量事件一旦成功写出到存储系统或下一个Flume Agent,Sink就利用Channel提交事务。事务一旦被提交,该Channel从自己的内部缓冲区删除事件。
    
    Sink组件目的地包括hdfs、logger、avro、thrift、ipc、file、null、HBase、solr、自定义。
    
    
     
      5.Event
     
    
    
    传输单元,Flume数据传输的基本单元,以事件的形式将数据从源头送至目的地。
   
    
     三、 Flume安装地址
    
   
    1) Flume官网地址
    
    http://flume.apache.org/
   
    2)文档查看地址
    
    http://flume.apache.org/FlumeUserGuide.html
   
    3)下载地址
    
    http://archive.apache.org/dist/flume/
   
    安装部署
    
    1)将apache-flume-1.7.0-bin.tar.gz上传到linux的/opt/software目录下
    
    
    
    2)解压apache-flume-1.7.0-bin.tar.gz到/opt/module/目录下
    
    
    
    3)修改apache-flume-1.7.0-bin的名称为flume
    
    
    
    4)将flume/conf下的flume-env.sh.template文件修改为flume-env.sh,并配置flume-env.sh文件
    
    
    
    
    
    
     案例实操
    
   
    1)案例需求:使用flume监听整个目录的文件
    
    
    
    2)需求分析:
    
    
    
    我先启动了一下hadoop
    
    
    看了一下页面 hdfs启动成功了
    
    启动成功之后查看hdfs的页面:(namenode)http://192.168.135.101:50070/
    
    
    
    启动遇到问题:
    
    一直启动不了 datanode 正在解决。。。。。。
   
 
