《云原生入门级开发者认证》学习笔记之云原生架构总览(一)【与云原生的故事】
625
2022-05-30
Hive相关学习指南
Hive官网:http://hive.apache.org
Hive入门指南:http://wiki.apache.org/hadoop/Hive/GettingStarted
HQL查询语言指南:http://wiki.apache.org/hadoop/Hive/HiveQL
演示文稿:http://wiki.apache.org/hadoop/Hive/Presentations
第一章 概述
1-1 课程概述
Hive是基于Hadoop HDFS之上的数据仓库。
数据仓库:本质上就是一个数据库。但有别于我们通常意义上的数据库
Hive安装有3种方式。
Hadoop和Hive都是基于Linux操作系统构建的,所以要有熟悉掌握Linux下操作命令。
1-2 数据仓库简介
①数据仓库是一个面向主题的、集成的、不可更新的、随时间不变化的数据集合,它用于支持企业或组织的决策分析处理。
面向主题:主题是指用户使用数据仓库时关心的重点内容。
集成的:数据仓库可将不同类型数据库管理系统中的数据集成起来保存。
不可更新的:数据仓库一般只做数据查询,不做更新、删除等操作。
②数据仓库的结构和建立过程:数据源(可能来源于业务数据库系统、文档资料和其他数据)——>数据存储及管理(ETL:抽取、转换、装载)——>数据仓库引擎(不同的服务器有不同的功能)——>前端展示(数据查询、数据报表、数据分析、各类应用)
OLTP应用:典型应用-银行转账
OLAP应用:典型应用-商品推荐系统
数据仓库的数据模型:星型模型和雪花模型
1-3 什么是Hive
①Hive是建立在Hadoop HDFS上的数据仓库基础架构。而传统的Oracle或MySQL数据仓库是直接建立在Oracle或MySQL数据库之上的。
②Hive可以用来进行数据提取、转化、加载(ETL)。
③Hive定义了简单的类似SQL查询语言,称为HQL它允许熟悉SQL的用户查询数据。
④Hive允许熟悉MapReduce开发者的开发自定义的mapper和reducer来处理內建mapper和reducer无法完成的复杂的分析工作。
⑤Hive的SQL解析引擎,它将SQL语句转移成M/R Job然后在Hadoop上执行。
⑥Hive的表其实就是HDFS的目录/文件。
第二章 Hive的体系结构
2-1 Hive的体系结构之元数据
Hive讲元数据存储在数据库中(metastore),支持mysql、derby、oracle等传统数据库,默认为derby。
Hive中元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在的目录等。
元数据被默认创建在derby数据库中,以表的形式保存数据。表的元信息、列元信息。
2-2 Hive的体系结构之HQL的执行过程
①解析器、编译器、优化器完成HQL查询语句从词法分析、语法分析、编译、优化以及查询计划(plan)的生成。生成的查询计划存储在HDFS中,并在随后有MapReduce调用执行。
过程:HQL语句——》解析器:词法分析——》编译器:生成HQL的执行计划——》优化器:生成最优执行计划——》执行。
②在oracle数据库中:
执行计划
explanin plan for select * from emp where deptno10
查询执行计划
select * from table(dbms_xplan.display)
全表扫描
创建索引
create index myindex on emp(deptno)
Hive的执行计划跟上面的oracle的执行计划类似。
2-3 Hive体系结构
•hadoop
–用HDFS进行存储,利用mapreduce进行计算。
•元数据存储(metastroe)
–通常存储在关系数据库中,如mysql,derby。
Hive Driver:驱动,包括编译器、解析器、优化器。
访问接口:①CLI:Command Line Interface;②通过JDBC/ODBC连接Thrift Server在连接驱动;③Web Console 控制台(只能查询)
第三章 Hive的安装
3-1 Hive的安装模式
①Apache的hive官网:hive.apache.org中下载hive.
bin.tar包为安装包
src.tar为源代码,可用来编译hive的可执行程序,通过源文件生成打包生成基于web的图形化管理工具,再部署到hive中,才可使用该图形化管理工具。
Hive的源码中集成有WEB UI管理工具, 需要自行编译发布到Hive环境中. 注意Hive的安装包中并不会集成WEB U
②安装hive之前要先安装hadoop,hadoop可以是单机环境、伪分布环境和集群环境中的一种。
Hive的安装有三种模式:嵌入模式、本地模式和远程模式。
1. 嵌入模式: 即使用Hive自带的Derby数据库, 将元数据及其信息存储在Derby数据库上面, 但有个缺点, Derby在同一时间只能接受一个连接(即只能允许一个人对hive进行操作), 故一般用作演示
2. 本地模式: 将元数据存储到同一机器中的MySQL数据库当中, 此模式一般用于开发与测试
3. 远程模式: 即是本地模式的升级版, 可将Hive的元数据存储到其它环境(可以是不同操作系统)机器上的MySQL当中.
3-2 Hive安装之嵌入模式
只需要解压Hive安装包, 然后直接执行bin目录的hive脚本, 便会自动创建一个metastore_db目录来保存元数据. 注意: 这个metastore_db目录是自动创建在执行hive时的当前目录下面, 即在嵌入模式中任意一个目录下执行hive都会创建此目录.
1
3-3 Hive安装之远程模式和本地模式
远程配置HIVE;命名hive-site.xml,要配置mysql的url、驱动、用户名、密码。
第四章 Hive的管理
4-1 Hive管理之CLI方式
进入CLI方式:
① 直接输入#/bin/hive的执行程序
②或者输入#hive –service cli
退出CLI方式:
① quit;
② exit;
常用的CLI的命令:
① 清屏: Ctrl + L 或者 !clear
② 查看数据仓库中的表: show tables;
③ 查看数据仓库中内置的函数: show functions;
④ 查看表的结构: desc 表名
⑤ 查看HDFS上的文件: dfs –ls 目录
dfs –lsr 目录 (-lsr表示以递归的方式查看子目录)
⑥ 执行操作系统的命令: ! 命令
⑦ 执行HQL语句: 例如select * from **
⑧ 执行SQL的脚本: source SQL文件
⑨ 命令“hive –s”: 进入静默模式:不产生hive的调试信息(mapreduce过程),只显示最后的结果。
⑩ hive –e ’HQL语句’ : 不进入hive直接执行HQL.
4-2 Hive管理之web界面方式
启动web界面方式:
-端口号:9999
-启动方式:#hive –service hwi &
-通过浏览器来访问:http://
1
2
3
4
5
6
7
8
9
4-3 Hive管理之远程模式
远程服务启动方式:
-端口号:10000
-启动方式:#hive –service hiveserver & 即启动了Hive Thrift Server
注意:如果以JDBC或ODBC的程序登录到hive中操作数据时,必须选用远程服务启动方式。
第五章 Hive的数据类型
5-1 基本数据类型
tinyint/smallint/int/bigint : 整数类型
float/double : 浮点数类型
boolean : 布尔类型
string : 字符串类型
5-2 复杂数据类型
Array : 数组类型,由一系列相同数据类型的元素组成。
Map : 集合类型,包含key-value键值对,可以通过key来访问元素。Array与map可以嵌套,比如array
5-3 时间数据类型
时间类型:
- Data : 从hive0.12.0开始支持。
- Timestamp : 从hive0.8.0开始支持。
Data与Timestamp的区别:Data类型描述的是一个特定的日期(不包含时间,即精确到日):YYYY-MM-DD。而Timestamp是相对于linux基准时间的偏移量,其实就是一个长整型数值,例如要获取系统当前的时间戳可以执行:select unix_timestamp();。 这两者可以转换。
第六章 Hive1的数据模型
6-1 Hive的数据存储
基于HDFS
没有专门的数据存储格式,可以用.txt、.csv,默认情况下可以用’\t’作为分隔符
存储结构主要包括:数据库、文件、表、视图。
可以直接加载文本文件(.txt文件等)
创建表时,制定hive数据的列分隔符与行分隔符
表:
- Table 内部表
- Partition 分区表
- External table 外部表
- Bucket table 桶表
视图
6-2 内部表
内部表(Table)
- 与数据库中的table 在概念上是类似的。
- 每一个table在hive中都有一个相应的目录存储数据。
- 所有的table数据(不包括external table)都保存在这个目录中。
- 删除表时,元数据和数据都会被删除。
如果没指定保存的位置,则默认保存在user/hive/warehouse中
指定行分隔符:row format delimited fileds terminated by ‘,’;
修改表添加新的一列:alter table t1 add columns(列名 数据类型);
删除表时:如果开启了Hadoop的回收站功能,则drop表后会放在.trash,也就是说可以通过一定方式找回删除的表。
6-3 分区表
分区表(Partition)
- Partition对应于数据库的Partition列的密集索引。
- 在hive中,表中的一个Partition对应于表下的一个目录,所有的Partition的数据都存储在对应的目录中。
作用:降低扫描的记录数,提高查询效率。当数据量很大的时候,我们就很需要创建分区。
可以通过explain语句查看HQL的执行计划,读执行计划STAGE PLANS的方式:从下往上,从右往左读。
Oracle中也有分区表,五种分区表。
6-4 外部表
外部表(external table)
- 指向已经在HDFS中存在的数据,可以创建Partition。
- 它和内部表在元数据的组织上是相同的,而实际数据的存储则有较大的差异
- 外部表只有一个过程,加载数据和创建表同时完成,并不会移动到数据仓库目录中,只是与外部数据建立一个链接。当删除一个外部表时,仅仅删除该链接。
6-5 桶表
桶表(bucket table)
- 桶表是对数据进行哈希取值,然后放到不同文件中存储。
作用:减低系统热块,提高查询效率。
create table bucket_table
(id int,name string)
clustered by(name) into 3 buckets //按name进行哈希,哈希到3个表中
row format delimited
fields terminated by ‘\t’;
clustered要在row的前面,否则报错。
6-6 视图
视图(view)
- 视图是一种虚表(不存数据),是一个逻辑概念;可以跨越多张表。
- 首先视图是一张表,操作视图和操作表的方式是一样的。
- 视图建立在已有表的基础上,视图赖以建立的这些表称为基表。
- 视图可以简化复杂的查询。
- hive的视图不存储数据的,oracle和mysql中的视图可以存储数据,称为物化视图.
例如:查询员工信息:员工号,姓名,月薪,年薪,部门名称。(需要主外键关联员工表和部门表)
create view empinfo
as
select e.empno, e.ename, e.sal, e.sal*12 annlsal, d.dname
from emp e, dept d
where e.deptno = d.deptno;
Hive 大数据
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。