走进大数据之Hive入门学习笔记(1)

网友投稿 625 2022-05-30

Hive相关学习指南

Hive官网:http://hive.apache.org

Hive入门指南:http://wiki.apache.org/hadoop/Hive/GettingStarted

HQL查询语言指南:http://wiki.apache.org/hadoop/Hive/HiveQL

演示文稿:http://wiki.apache.org/hadoop/Hive/Presentations

第一章 概述

1-1 课程概述

Hive是基于Hadoop HDFS之上的数据仓库。

数据仓库:本质上就是一个数据库。但有别于我们通常意义上的数据库

Hive安装有3种方式。

Hadoop和Hive都是基于Linux操作系统构建的,所以要有熟悉掌握Linux下操作命令。

1-2 数据仓库简介

①数据仓库是一个面向主题的、集成的、不可更新的、随时间不变化的数据集合,它用于支持企业或组织的决策分析处理。

面向主题:主题是指用户使用数据仓库时关心的重点内容。

集成的:数据仓库可将不同类型数据库管理系统中的数据集成起来保存。

不可更新的:数据仓库一般只做数据查询,不做更新、删除等操作。

②数据仓库的结构和建立过程:数据源(可能来源于业务数据库系统、文档资料和其他数据)——>数据存储及管理(ETL:抽取、转换、装载)——>数据仓库引擎(不同的服务器有不同的功能)——>前端展示(数据查询、数据报表、数据分析、各类应用)

OLTP应用:典型应用-银行转账

OLAP应用:典型应用-商品推荐系统

数据仓库的数据模型:星型模型和雪花模型

1-3 什么是Hive

①Hive是建立在Hadoop HDFS上的数据仓库基础架构。而传统的Oracle或MySQL数据仓库是直接建立在Oracle或MySQL数据库之上的。

②Hive可以用来进行数据提取、转化、加载(ETL)。

③Hive定义了简单的类似SQL查询语言,称为HQL它允许熟悉SQL的用户查询数据。

④Hive允许熟悉MapReduce开发者的开发自定义的mapper和reducer来处理內建mapper和reducer无法完成的复杂的分析工作。

⑤Hive的SQL解析引擎,它将SQL语句转移成M/R Job然后在Hadoop上执行。

⑥Hive的表其实就是HDFS的目录/文件。

第二章 Hive的体系结构

2-1 Hive的体系结构之元数据

Hive讲元数据存储在数据库中(metastore),支持mysql、derby、oracle等传统数据库,默认为derby。

Hive中元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在的目录等。

元数据被默认创建在derby数据库中,以表的形式保存数据。表的元信息、列元信息。

2-2 Hive的体系结构之HQL的执行过程

①解析器、编译器、优化器完成HQL查询语句从词法分析、语法分析、编译、优化以及查询计划(plan)的生成。生成的查询计划存储在HDFS中,并在随后有MapReduce调用执行。

过程:HQL语句——》解析器:词法分析——》编译器:生成HQL的执行计划——》优化器:生成最优执行计划——》执行。

②在oracle数据库中:

执行计划

explanin plan for select * from emp where deptno10

查询执行计划

select * from table(dbms_xplan.display)

全表扫描

创建索引

create index myindex on emp(deptno)

Hive的执行计划跟上面的oracle的执行计划类似。

2-3 Hive体系结构

•hadoop

–用HDFS进行存储,利用mapreduce进行计算。

•元数据存储(metastroe)

–通常存储在关系数据库中,如mysql,derby。

Hive Driver:驱动,包括编译器、解析器、优化器。

访问接口:①CLI:Command Line Interface;②通过JDBC/ODBC连接Thrift Server在连接驱动;③Web Console 控制台(只能查询)

第三章 Hive的安装

3-1 Hive的安装模式

①Apache的hive官网:hive.apache.org中下载hive.

bin.tar包为安装包

src.tar为源代码,可用来编译hive的可执行程序,通过源文件生成打包生成基于web的图形化管理工具,再部署到hive中,才可使用该图形化管理工具。

Hive的源码中集成有WEB UI管理工具, 需要自行编译发布到Hive环境中. 注意Hive的安装包中并不会集成WEB U

②安装hive之前要先安装hadoop,hadoop可以是单机环境、伪分布环境和集群环境中的一种。

Hive的安装有三种模式:嵌入模式、本地模式和远程模式。

1. 嵌入模式: 即使用Hive自带的Derby数据库, 将元数据及其信息存储在Derby数据库上面, 但有个缺点, Derby在同一时间只能接受一个连接(即只能允许一个人对hive进行操作), 故一般用作演示

2. 本地模式: 将元数据存储到同一机器中的MySQL数据库当中, 此模式一般用于开发与测试

3. 远程模式: 即是本地模式的升级版, 可将Hive的元数据存储到其它环境(可以是不同操作系统)机器上的MySQL当中.

3-2 Hive安装之嵌入模式

只需要解压Hive安装包, 然后直接执行bin目录的hive脚本, 便会自动创建一个metastore_db目录来保存元数据. 注意: 这个metastore_db目录是自动创建在执行hive时的当前目录下面, 即在嵌入模式中任意一个目录下执行hive都会创建此目录.

1

3-3 Hive安装之远程模式和本地模式

远程配置HIVE;命名hive-site.xml,要配置mysql的url、驱动、用户名、密码。

第四章 Hive的管理

4-1 Hive管理之CLI方式

进入CLI方式:

① 直接输入#/bin/hive的执行程序

②或者输入#hive –service cli

退出CLI方式:

① quit;

② exit;

常用的CLI的命令:

① 清屏: Ctrl + L 或者 !clear

② 查看数据仓库中的表: show tables;

③ 查看数据仓库中内置的函数: show functions;

④ 查看表的结构: desc 表名

⑤ 查看HDFS上的文件: dfs –ls 目录

dfs –lsr 目录 (-lsr表示以递归的方式查看子目录)

⑥ 执行操作系统的命令: ! 命令

⑦ 执行HQL语句: 例如select * from **

⑧ 执行SQL的脚本: source SQL文件

⑨ 命令“hive –s”: 进入静默模式:不产生hive的调试信息(mapreduce过程),只显示最后的结果。

⑩ hive –e ’HQL语句’ : 不进入hive直接执行HQL.

4-2 Hive管理之web界面方式

启动web界面方式:

-端口号:9999

-启动方式:#hive –service hwi &

-通过浏览器来访问:http://

hive.hwi.listen.host 0.0.0.0 hivehwi.listen.port 9999 hive.hwi.war.file lib/hive-hwi.war

1

2

3

4

5

6

7

8

9

4-3 Hive管理之远程模式

远程服务启动方式:

-端口号:10000

-启动方式:#hive –service hiveserver & 即启动了Hive Thrift Server

注意:如果以JDBC或ODBC的程序登录到hive中操作数据时,必须选用远程服务启动方式。

第五章 Hive的数据类型

5-1 基本数据类型

tinyint/smallint/int/bigint : 整数类型

float/double : 浮点数类型

boolean : 布尔类型

string : 字符串类型

5-2 复杂数据类型

Array : 数组类型,由一系列相同数据类型的元素组成。

Map : 集合类型,包含key-value键值对,可以通过key来访问元素。Array与map可以嵌套,比如array

5-3 时间数据类型

时间类型:

- Data : 从hive0.12.0开始支持。

- Timestamp : 从hive0.8.0开始支持。

Data与Timestamp的区别:Data类型描述的是一个特定的日期(不包含时间,即精确到日):YYYY-MM-DD。而Timestamp是相对于linux基准时间的偏移量,其实就是一个长整型数值,例如要获取系统当前的时间戳可以执行:select unix_timestamp();。 这两者可以转换。

第六章 Hive1的数据模型

6-1 Hive的数据存储

基于HDFS

没有专门的数据存储格式,可以用.txt、.csv,默认情况下可以用’\t’作为分隔符

存储结构主要包括:数据库、文件、表、视图。

可以直接加载文本文件(.txt文件等)

创建表时,制定hive数据的列分隔符与行分隔符

表:

- Table 内部表

- Partition 分区表

- External table 外部表

- Bucket table 桶表

视图

6-2 内部表

内部表(Table)

- 与数据库中的table 在概念上是类似的。

- 每一个table在hive中都有一个相应的目录存储数据。

- 所有的table数据(不包括external table)都保存在这个目录中。

- 删除表时,元数据和数据都会被删除。

如果没指定保存的位置,则默认保存在user/hive/warehouse中

指定行分隔符:row format delimited fileds terminated by ‘,’;

修改表添加新的一列:alter table t1 add columns(列名 数据类型);

删除表时:如果开启了Hadoop的回收站功能,则drop表后会放在.trash,也就是说可以通过一定方式找回删除的表。

6-3 分区表

分区表(Partition)

- Partition对应于数据库的Partition列的密集索引。

- 在hive中,表中的一个Partition对应于表下的一个目录,所有的Partition的数据都存储在对应的目录中。

作用:降低扫描的记录数,提高查询效率。当数据量很大的时候,我们就很需要创建分区。

可以通过explain语句查看HQL的执行计划,读执行计划STAGE PLANS的方式:从下往上,从右往左读。

《走进大数据之Hive入门》学习笔记(1)

Oracle中也有分区表,五种分区表。

6-4 外部表

外部表(external table)

- 指向已经在HDFS中存在的数据,可以创建Partition。

- 它和内部表在元数据的组织上是相同的,而实际数据的存储则有较大的差异

- 外部表只有一个过程,加载数据和创建表同时完成,并不会移动到数据仓库目录中,只是与外部数据建立一个链接。当删除一个外部表时,仅仅删除该链接。

6-5 桶表

桶表(bucket table)

- 桶表是对数据进行哈希取值,然后放到不同文件中存储。

作用:减低系统热块,提高查询效率。

create table bucket_table

(id int,name string)

clustered by(name) into 3 buckets //按name进行哈希,哈希到3个表中

row format delimited

fields terminated by ‘\t’;

clustered要在row的前面,否则报错。

6-6 视图

视图(view)

- 视图是一种虚表(不存数据),是一个逻辑概念;可以跨越多张表。

- 首先视图是一张表,操作视图和操作表的方式是一样的。

- 视图建立在已有表的基础上,视图赖以建立的这些表称为基表。

- 视图可以简化复杂的查询。

- hive的视图不存储数据的,oracle和mysql中的视图可以存储数据,称为物化视图.

例如:查询员工信息:员工号,姓名,月薪,年薪,部门名称。(需要主外键关联员工表和部门表)

create view empinfo

as

select e.empno, e.ename, e.sal, e.sal*12 annlsal, d.dname

from emp e, dept d

where e.deptno = d.deptno;

Hive 大数据

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:《React+Redux前端开发实战》
下一篇:专访刘康:Coding这件事,不曾拥有,也不曾远离
相关文章