第二章 Flink集成Iceberg的集成方式及基本SQL使用

  • Post author:
  • Post category:其他



  • 注意事项:一般都是用基于Flink的Hive Catalog,使用HMS存储表模型数据



在这里插入图片描述



1、集成方式

(1)下载jar包

iceberg-flink-runtime-1.14-1.0.0jar
flink-sql-connector-hive-2.3.6_2.12-1.11.2.jar
  • 下载地址
https://nightlies.apache.org/flink/flink-docs-release-1.15/zh/docs/connectors/table/hive/overview/

(2)启动FlinkSQL

①StandLone模式启动

export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`

./bin/sql-client.sh embedded -j <flink-runtime-directory>/iceberg-flink-runtime-xxx.jar shell

②Flink On Yarn模式启动

export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`


#  第一步 - 在Yarn集群上生成一个Standlone集群
./yarn-session.sh -s 2 -jm 2048 -tm 2048 -nm flinksql1 -d

#  第二步 - 指定yarn-session模式启动sql-client
./sql-client.sh embedded -s yarn-session -j ../lib/iceberg-flink-runtime-1.14-0.14.1.jar shell



2、基本使用



2.1、创建catalog
  • 核心:可创建hive、hadoop、自定义等目录,创建模板如下
CREATE CATALOG <catalog_name> WITH (
  'type'='iceberg',
  `<config_key>`=`<config_value>`
); 

  • type

    : 必须的

    iceberg

    。(必需的)

  • catalog-type

    :

    hive



    hadoop

    用于内置目录,或未设置用于使用 catalog-impl 的自定义目录实现。(可选的)

  • catalog-impl

    :自定义目录实现的完全限定类名。如果未设置,则必须

    catalog-type

    设置。(可选的)

  • property-version

    : 描述属性版本的版本号。如果属性格式发生变化,此属性可用于向后兼容。当前的属性版本是

    1

    . (可选的)

  • cache-enabled

    : 是否启用目录缓存,默认值为

    true


2.2、创建基于Hive的Catalog

(1)创建Catalog

CREATE CATALOG hive_iceberg WITH (
    'type'='iceberg',                     
    'catalog-type'='hive',                  
    'uri'='thrift://leidi01:9083',       
    'clients'='5',                         
    'property-version'='1',
    'hive-conf-dir'='/usr/hdp/3.1.0.0-78/hive/conf'
);

show catalogs;

  • uri

    : Hive 元存储的 thrift URI。(必需的)

  • clients

    :Hive Metastore 客户端池大小,默认值为 2。(可选)

  • warehouse

    :Hive 仓库位置,如果既不设置

    hive-conf-dir

    指定包含

    hive-site.xml

    配置文件的位置也不添加正确

    hive-site.xml

    的类路径,用户应指定此路径。

  • hive-conf-dir``hive-site.xml

    :包含将用于提供自定义 Hive 配置值的配置文件的目录的路径。如果同时设置和创建冰山目录时,

    hive.metastore.warehouse.dir

    from

    /hive-site.xml

    (或来自类路径的 hive 配置文件)的值将被该值覆盖。

    warehouse``hive-conf-dir``warehouse
  • 创建结果

在这里插入图片描述

(2)多客户端共享验证

  • 客户端一对应库表

在这里插入图片描述

  • 客户端二可见对应库表

    在这里插入图片描述


2.3、创建基于Hadoop的calalog

(1)创建Catalog

CREATE CATALOG hadoop_catalog WITH (
  'type'='iceberg',
  'catalog-type'='hadoop',
  'warehouse'='hdfs://leidi01:8020/warehouse/iceberg_catalog',
  'property-version'='1'
);

  • warehouse

    :HDFS目录,存放元数据文件和数据文件。(必需的)
  • 创建结果

在这里插入图片描述



2.4、其余创建方式

(1)创建自定义目录

  • 核心:通过指定

    catalog-impl

    属性来加载自定义的 Iceberg实现
REATE CATALOG my_catalog WITH (
  'type'='iceberg',
  'catalog-impl'='com.my.custom.CatalogImpl',
  'my-additional-catalog-config'='my-value'
);

(2)通过SQL文件创建目录

-- define available catalogs
CREATE CATALOG hive_catalog WITH (
  'type'='iceberg',
  'catalog-type'='hive',
  'uri'='thrift://leidi01:9083',
  'warehouse'='hdfs://leidi01:8020/user/flink/iceberg'
);

USE CATALOG hive_catalog;

  • 注意事项:

    sql-client-defaults.yaml

    在 flink 1.14 中删除了该文件,需要初始化才能有文件



3、Flink SQL语句



3.1、DDL语句

(1)建库建表

use catalog iceberg;
CREATE DATABASE iceberg_db;
USE iceberg_db;

CREATE TABLE iceberg.iceberg_db.iceberg_001 (
    id BIGINT COMMENT 'unique id',
    data STRING
) WITH ('connector'='iceberg','write.format.default'='ORC');

(2)创建分区table

CREATE TABLE iceberg.iceberg_db.iceberg_003 (
    id BIGINT COMMENT 'unique id',
    data STRING
) PARTITIONED BY (data);

(3)更改table

--1、CREATE TABLE LIKE
CREATE TABLE `hive_catalog`.`default`.`sample` (
    id BIGINT COMMENT 'unique id',
    data STRING
);

CREATE TABLE  `hive_catalog`.`default`.`sample_like` LIKE `hive_catalog`.`default`.`sample`

--2、alter table
ALTER TABLE `hive_catalog`.`default`.`sample` SET ('write.format.default'='avro')

--3、ALTER TABLE .. RENAME TO
ALTER TABLE `hive_catalog`.`default`.`sample` RENAME TO `hive_catalog`.`default`.`new_sample`;

--4、DROP TABLE
DROP TABLE `hive_catalog`.`default`.`sample`;


3.2、DML语句

(1)插入数据

  • insert into
INSERT INTO `iceberg`.`iceberg_db`.`iceberg_001` VALUES (1, 'a');

--分区表插入语句
INSERT INTO `iceberg`.`iceberg_db`.`iceberg_001`() values(2,'b')
  • insert overwrite
INSERT OVERWRITE sample VALUES (1, 'a');

(2)查询数据

  • 执行类型:流模式 VS 批模式
-- Execute the flink job in streaming mode for current session context
SET execution.runtime-mode = streaming;

-- Execute the flink job in batch mode for current session context
SET execution.runtime-mode = batch;


Ⅰ、批量读取:通过提交 flink批处理作业来检查 iceberg 表中的所有行

SET execution.runtime-mode = batch;
SELECT * FROM sample;


Ⅱ、流式读取:支持处理从历史快照 id 开始的 flink 流作业中的增量数据


  • monitor-interval:连续监控新提交的数据文件的时间间隔(默认值:‘10s’)


  • start-snapshot-id:流作业开始的快照 id

-- Submit the flink job in streaming mode for current session.
SET execution.runtime-mode = streaming;

-- Enable this switch because streaming read SQL will provide few job options in flink SQL hint options.
SET table.dynamic-table-options.enabled=true;

-- Read all the records from the iceberg current snapshot, and then read incremental data starting from that snapshot.
SELECT * FROM sample /*+ OPTIONS('streaming'='true', 'monitor-interval'='1s')*/ ;

-- Read all incremental data starting from the snapshot-id '3821550127947089987' (records from this snapshot will be excluded).
SELECT * FROM sample /*+ OPTIONS('streaming'='true', 'monitor-interval'='1s', 'start-snapshot-id'='3821550127947089987')*/ ;

(3)更新数据

  • 前提:启动更新模式

  • 模式一:

    启用

    UPSERT

    模式作为表级属性

    write.upsert.enabled

CREATE TABLE `hive_catalog`.`default`.`sample` (
  `id`  INT UNIQUE COMMENT 'unique id',
  `data` STRING NOT NULL,
 PRIMARY KEY(`id`) NOT ENFORCED
) with ('format-version'='2', 'write.upsert.enabled'='true');
  • 模式二:



    write options

    中使用启用

    UPSERT

    模式

    upsert-enabled

    提供了比表级配置更大的灵活性。
INSERT INTO tableName /*+ OPTIONS('upsert-enabled'='true') */
...



4、Flink集成Iceberg的Hadoop Catalog实战案例



4.1、创建catalog的存储格式

(1)创建Catalog

 CREATE CATALOG hadoop_catalog WITH (
   'type'='iceberg',
   'catalog-type'='hadoop',
   'warehouse'='hdfs://leidi01:8020/warehouse/iceberg_catalog',
   'property-version'='1'
 );
  • 创捷结果:

    一个catalog + 一个默认的default数据库

在这里插入图片描述

(2)查看HDFS结构目录

在这里插入图片描述



4.2、建库建表

(1)建库建表

 create database hadoop_test;
 use hadoop_test;
 CREATE TABLE `hadoopdemo` (
      >     id BIGINT COMMENT 'unique id',
      >     data STRING
      > );
  • 创建结果

在这里插入图片描述

(2)查看对应HDFS目录

  • 验证:

    catalog为一级目录、数据库为二级目录、表为三级目录

    ,建Catalog、建库、建表时没有flink任务生成。

在这里插入图片描述



4.3、插入数据

(1)插入数据

INSERT INTO `iceberg`.`iceberg_db`.`iceberg_001` VALUES (1, 'a');
  • 运行结果

在这里插入图片描述

(2)HDFS目录

  • 验证结果:分别生成data和metadata两个目录

在这里插入图片描述

①data目录文件结构

  • 存储:以parquent格式存储的

    数据文件

在这里插入图片描述

②metadata目录文件结构

  • 存储:metadata目录存放

    元数据管理层

    的数据,表的元数据是不可修改的,并且始终向前迭代;当前的快照可以回退。

在这里插入图片描述

  • 文件详述
文件名称 文件描述 备注
version[number].metadata.json 存储每个版本的数据更改项
snap-[snapshotID]-[attemptID]-[commitUUID].avro 存储快照snapshot文件;
[commitUUID]-[attemptID]-[manifestCount].avro 清单文件,每次更新操作都会产生清单文件
version-hint.text



5、Catalog设置相关

​ Hive metastore 中的表可以表示

加载 Iceberg 表的三种不同方式

,具体取决于表的

iceberg.catalog

属性:



5.1、

不指定任何Catalog类型,直接创建表



如果在Hive中创建Iceberg格式表时不指定Iceberg.catalog属性,将使用

HiveCatalog

与 Hive 环境中配置的 Metastore 相对应的表加载该表

iceberg.catalog

,那么数据存储在对应的Hive Warehouse路径下

-- 1、在Hive中创建Iceberg格式表
create table test_iceberg_tbl1(
    id int,
    name string,
    age int)
    partitioned by (dt string)
    stored by 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler';
    
-- 2、在Hive中加载如下两个包,在向Hive中插入数据时执行MR程序时需要使用到
add jar /usr/hdp/3.1.0.0-78/hive/lib/iceberg-hive-runtime-0.14.1.jar
add jar /usr/hdp/3.1.0.0-78/hive/lib/libfb303-0.9.3.jar

-- 3、向表中插入数据
insert into test_iceberg_tbl1 values(1,"sz",18,"beijing")

-- 4、查询表中数据
select * from test_iceberg_tbl1
  • 查看表元数据存储信息

e38acbc4252d7ca815610eddeb34405e.png



5.2、


iceberg.catalog

如果设置为Hive目录名称,将使用自定义目录加载该表



在Hive中创建Iceberg格式表时,如果指定了iceberg.catalog属性值,那么数据存储在指定的catalog名称对应配置的目录下

-- 1、注册一个HiveCatalog叫another_hive
set iceberg.catalog.another_hive.type=hive; 
SET iceberg.catalog.another_hive.uri=thrift://10.201.0.202:49153;
SET iceberg.catalog.another_hive.warehouse=s3a://faas-ethan/warehouse/;
SET hive.vectorized.execution.enabled=false;

-- 2、在Hive中创建iceberg格式表
create table test_iceberg_tbl2(
id int,
name string,
age int
)
partitioned by (dt string)
stored by 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
location 's3a://faas-ethan/warehouse/default/sample_hive_table_1'
tblproperties ('iceberg.catalog'='another_hive');


-- 3、插入数据,并查询
hive> insert into test_iceberg_tbl2 values (2,"ls",20,"20211212");
hive> select * from test_iceberg_tbl2;
  • 查看本地HMS中表元数据存储信息:

bc87a1c0ebdcecf96b6633147b0f863b.png

  • 查看远端HMS中表数据存储信息

1669a56f8a781fa048c7c6ef85728adf.png



在Hive中创建Iceberg表,会在两边HMS分别存储一份元数据,只有这样,远端HMS中的Iceberg表才对本地HMS可见,所以必须保证远端HMS存在对应的数据库。


  • 问题:

    如果只有远端HMS的Iceberg表,如何在本地HMS访问?

  • 解决方案:

    通过如下创建external外表的形式在本地HMS生成元数据。

CREATE EXTERNAL TABLE default.sample_hive_table_1(
id bigint, name string
)
PARTITIONED BY(
dept string
) 
STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
location 's3a://faas-ethan/warehouse/default/sample_hive_table_1'
TBLPROPERTIES ('iceberg.catalog'='another_hive');
  • 震惊:

    通过以下Hive SQL实现了跨HMS的联邦查询!!!
select * from default.sample_local_hive_table_1,sample_hive_table_1;



5.3、


iceberg.catalog

如果设置为location_based_table,则可以使用表的根位置直接加载表

location_based_table




如果HDFS中已经存在iceberg格式表,我们可以通过在Hive中创建Icerberg格式表指定对应的location路径映射数据

CREATE TABLE test_iceberg_tbl4  (
  id int, 
  name string,
  age int,
  dt string
)STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler' 
LOCATION 'hdfs://leidi01:8020/flinkiceberg/iceberg_db/flink_iceberg_tbl2' 
TBLPROPERTIES ('iceberg.catalog'='location_based_table');

--指定的location路径下必须是iceberg格式表数据,并且需要有元数据目录才可以。不能将其他数据映射到Hive iceberg格式表。
  • 注意事项

​ 由于Hive建表语句分区语法

Partitioned by

的限制,如果使用Hive创建Iceberg格式表,目前只能按照Hive语法来写,底层转换成Iceberg标识分区,这种情况下不能使用Iceberge的分区转换,例如:days(timestamp),如果想要

使用Iceberg格式表的分区转换标识分区,需要使用Spark或者Flink引擎创建表



5.4、附加:注册Hadoop类型的Catalog
SET iceberg.catalog.hadoop_cat.type=hadoop;
SET iceberg.catalog.hadoop_cat.warehouse=s3a://faas-ethan/warehouse;
  • 使用Hadoop Catalog建表
CREATE TABLE default.sample_hadoop_table_1(
    id bigint, name string
) PARTITIONED BY (
    dept string
)
  STORED BY 'org.apache.iceberg.mr.hive.HiveIcebergStorageHandler'
  LOCATION 's3a://faas-ethan/warehouse/default/sample_hadoop_table_1'
  TBLPROPERTIES ('iceberg.catalog'='hadoop_cat');
  • 查看HMS中表元数据存储信息

30511a8f71133b88d5b43b3e93db10c7.png



Hadoop Catalog

相比

Hive Catalog

建立的表相比,少了

metadata_location

属性,同时元数据文件多了

version-hint.text

在这里插入图片描述



版权声明:本文为qq_27924553原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。