以云数据库产品为例深度对比分析:华为云更安全还是阿里云更安全?【玩转华为云】
665
2022-05-29
内容太多了,想着就这样大眼瞪小眼的也没办法,还不如整理一份。
Tips:真要学习的就绕开吧,仅为考试所用,太难的内容没有,我也不耽误宝贵的时间,有这时间多看几篇我其他的干货不好吗?
文章目录
大数据概述
Hadoop
Hadoop简介
Hadoop特性
大规模文件系统的整体结构
通信协议
冗余数据保存
Spark
Spark简介
Scala简介
Spark VS Hadoop
Spark运行架构
窄依赖与宽依赖
阶段的划分
分布式数据库HBase
HBase简介
HBase数据模型概述
HBase系统架构
Region服务器工作原理
用户读写数据过程
缓存的刷新
StoreFile的合并
HLog
NoSQL
NoSQL的三大基石
BASE
MongoDB
MapReduce
MapReduce模型简介
MapReduce工作流程
流计算
大数据概述
天天说大数据大数据的,大数据具体都有哪些特点呢?
数据量大
数据类型繁多
处理速度快
价值密度低(商业价值高)
Hadoop
Hadoop简介
Hadoop是Apache软件基金会旗下的一个
开源分布式计算平台
,为用户提供了系统底层细节透明的分布式基础架构
Hadoop是
基于Java语言开发
的,具有很好的
跨平台特性
,并且可以
部署在廉价的计算机集群中
Hadoop的核心是
分布式文件系统HDFS
(Hadoop Distributed File System)
和MapReduce
Hadoop被公认为行业大数据标准开源软件,在分布式环境下提供了海量数据的处理能力
几乎所有主流厂商都围绕Hadoop提供开发工具、开源软件、商业化工具和技术服务,如谷歌、雅虎、微软、思科、淘宝等,都支持Hadoop
Hadoop特性
高可靠性 高效性 高可扩展性 高容错性 成本低 运行在Linux平台上 支持多种编程语言
1
2
3
4
5
6
7
大规模文件系统的整体结构
HDFS默认一个块64MB
,一个文件被分成多个块,以块作为存储单位
块的大小远远大于普通文件系统,可以最小化寻址开销
HDFS采用抽象的块概念可以带来以下几个明显的好处:
● 支持大规模文件存储
● 简化系统设计
● 适合数据备份
通信协议
HDFS是一个部署在集群上的分布式文件系统,因此,很多数据需要通过网络进行传输
所有的HDFS通信协议都是构建在
TCP/IP
协议基础之上的
客户端通过一个可配置的端口向名称节点主动发起TCP连接,并使用客户端协议与名称节点进行交互
名称节点和数据节点之间则使用
数据节点协议
进行交互
客户端与数据节点的交互是通过RPC(Remote Procedure Call)来实现的。在设计上,名称节点不会主动发起RPC,而是响应来自客户端和数据节点的RPC请求
冗余数据保存
作为一个分布式文件系统,为了保证系统的容错性和可用性,HDFS采用了多副本方式对数据进行冗余存储,通常一个数据块的多个副本会被分布到不同的数据节点上。这种多副本方式具有以下几个优点:
(1)加快数据传输速度 (2)容易检查数据错误 (3)保证数据可靠性
1
2
3
Spark
Spark简介
Spark具有如下几个主要特点:
运行速度快 容易使用 通用性 运行模式多样
1
2
3
4
Scala简介
Scala是一门现代的多范式编程语言,运行于Java平台(JVM,Java 虚拟机),并兼容现有的Java程序
Scala的特性:
Scala具备强大的并发性,支持函数式编程,可以更好地支持分布式系统
Scala语法简洁,能提供优雅的API
Scala兼容Java,运行速度快,且能融合到Hadoop生态圈中
Spark VS Hadoop
相比于Hadoop MapReduce,Spark主要具有如下优点:
Spark的计算模式也属于MapReduce,但不局限于Map和Reduce操作,还
提供了多种数据集操作类型
,编程模型比Hadoop MapReduce更灵活
Spark提供了内存计算
,可将中间结果放到内存中,对于迭代运算效率更高
Spark基于DAG的任务调度执行机制,要优于Hadoop MapReduce的迭代执行机制
Spark运行架构
RDD:是Resillient Distributed Dataset(
弹性分布式数据集
)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享内存模型
DAG:是Directed Acyclic Graph(
有向无环图
)的简称,反映RDD之间的依赖关系
Executor:是运行在工作节点(WorkerNode)的一个进程,负责运行Task
应用(Application):用户编写的Spark应用程序
任务( Task ):运行在Executor上的工作单元
作业( Job ):一个作业包含多个RDD及作用于相应RDD上的各种操作
阶段( Stage ):是作业的基本调度单位,一个作业会分为多组任务,每组任务被称为阶段,或者也被称为任务集合,代表了一组关联的、相互之间没有Shuffle依赖关系的任务组成的任务集
此处略过一堆RDD概念
窄依赖与宽依赖
对于窄依赖,由于父RDD的一个分区只对应一个子RDD分区,这样只需要重算和子RDD分区对应的父RDD分区即可,所以这个重算对数据的利用率是100%的;
对于宽依赖,重算的父RDD分区对应多个子RDD分区,这样实际上父RDD 中只有一部分的数据是被用于恢复这个丢失的子RDD分区的,另一部分对应子RDD的其它未丢失分区,这就造成了多余的计算;更一般的,宽依赖中子RDD分区通常来自多个父RDD分区,极端情况下,所有的父RDD分区都要进行重新计算。
如下图所示,b1分区丢失,则需要重新计算a1,a2和a3,这就产生了冗余计算(a1,a2,a3中对应b2的数据)。
阶段的划分
窄依赖可以实现“流水线”优化
宽依赖无法实现“流水线”优化
分布式数据库HBase
HBase简介
HBase是一个高可靠、高性能、面向列、可伸缩的分布式数据库,是谷歌BigTable的开源实现,主要用来存储非结构化和半结构化的松散数据。HBase的目标是处理非常庞大的表,可以通过水平扩展的方式,利用廉价计算机集群处理由超过10亿行数据和数百万列元素组成的数据表
Q:关系数据库已经流行很多年,并且Hadoop已经有了HDFS和MapReduce,为什么需要HBase?
Hadoop无法满足
大规模
数据
实时处理应用
的需求
HDFS面向批量访问模式,不是随机访问模式
传统的通用关系型数据库无法应对在
数据规模剧增时
导致的
系统扩展性和性能问题
(分库分表也不能很好解决)
传统关系数据库在数据结构变化时一般需要
停机维护
HBase已经成功应用于互联网服务领域和传统行业的众多在线式数据分析处理系统中
HBase数据模型概述
HBase是一个稀疏、多维度、排序的
映射表
,这张表的索引是
行键
、
列族
、
列限定符
和
时间戳
每个值是一个未经解释的字符串,没有数据类型
用户在表中存储数据,每一行都有一个可排序的行键和任意多的列
表在水平方向由一个或者多个列族组成,一个列族中可以包含任意多个列,同一个列族里面的数据存储在一起
列族支持动态扩展,可以很轻松地添加一个列族或列,无需预先定义列的数量以及类型,所有列均以字符串形式存储,用户需要自行进行数据类型转换
HBase中执行更新操作时,并不会删除数据旧的版本,而是生成一个新的版本,旧有的版本仍然保留(这是和HDFS只允许追加不允许修改的特性相关的)
HBase系统架构
客户端
客户端包含访问HBase的接口,同时在缓存中维护着已经访问过的Region位置信息,用来加快后续数据访问过程
Zookeeper服务器
Zookeeper可以帮助选举出一个Master作为集群的总管,并保证在任何时刻总有唯一一个Master在运行,这就避免了Master的“单点失效”问题
Master
主服务器Master主要负责表和Region的管理工作:
管理用户对表的增加、删除、修改、查询等操作
实现不同Region服务器之间的负载均衡
在Region分裂或合并后,负责重新调整Region的分布
对发生故障失效的Region服务器上的Region进行迁移
Region服务器
Region服务器是HBase中最核心的模块,负责维护分配给自己的Region,并响应用户的读写请求
Region服务器工作原理
用户写入数据时,被分配到相应Region服务器去执行
用户数据首先被写入到MemStore和Hlog中
只有当操作写入Hlog之后,commit()调用才会将其返回给客户端
当用户读取数据时,Region服务器会首先访问MemStore缓存,如果找不到,再去磁盘上面的StoreFile中寻找
系统会周期性地把MemStore缓存里的内容刷写到磁盘的StoreFile文件中,清空缓存,并在Hlog里面写入一个标记
每次刷写都生成一个新的StoreFile文件,因此,每个Store包含多个StoreFile文件
每个Region服务器都有一个自己的HLog 文件,每次启动都检查该文件,确认最近一次执行缓存刷新操作之后是否发生新的写入操作;如果发现更新,则先写入MemStore,再刷写到StoreFile,最后删除旧的Hlog文件,开始为用户提供服务
每次刷写都生成一个新的StoreFile,数量太多,影响查找速度
调用Store.compact()把多个合并成一个
合并操作比较耗费资源,只有数量达到一个阈值才启动合并
HLog
分布式环境必须要考虑系统出错。HBase采用HLog保证系统恢复
HBase系统为每个Region服务器配置了一个HLog文件,它是一种
预写式日志
(Write Ahead Log)
用户更新数据必须首先写入日志后,才能写入MemStore缓存,并且,直到MemStore缓存内容对应的日志已经写入磁盘,该缓存内容才能被刷写到磁盘
NoSQL
通常,NoSQL数据库具有以下几个特点:
(1)灵活的可扩展性 (2)灵活的数据模型 (3)与云计算紧密融合
1
2
3
关系数据库已经无法满足Web2.0的需求。主要表现在以下几个方面:
(1)无法满足海量数据的管理需求 (2)无法满足数据高并发的需求 (3)无法满足高可扩展性和高可用性的需求
1
2
3
NoSQL的三大基石
C(Consistency):一致性
A:(Availability):可用性
P(Tolerance of Network Partition):分区容忍性
一个分布式系统不可能同时满足一致性、可用性和分区容忍性这三个需求,最多只能同时满足其中两个
BASE
BASE的基本含义是基本可用(Basically Availble)、软状态(Soft-state)和最终一致性(Eventual consistency):
MongoDB
MongoDB 是由C++语言编写的,是一个基于分布式文件存储的开源数据库系统。
曾经我也有做这些底层的想法。
后来,快乐,啪,没了。
云数据库
云数据库是部署和虚拟化在云计算环境中的数据库。
云数据库是在云计算的大背景下发展起来的一种新兴的共享基础架构的方法,它极大地增强了数据库的存储能力,消除了人员、硬件、软件的重复配置,让软、硬件升级变得更加容易。
云数据库具有高可扩展性、高可用性、采用多租形式和支持资源有效分发等特点。
MapReduce
MapReduce模型简介
MapReduce将复杂的、运行于大规模集群上的并行计算过程高度地抽象到了两个函数:Map和Reduce
编程容易,不需要掌握分布式并行编程细节,也可以很容易把自己的程序运行在分布式系统上,完成海量数据的计算
MapReduce采用“
分而治之
”策略,一个存储在分布式文件系统中的大规模数据集,会被切分成许多独立的分片(split),这些分片可以被多个Map任务并行处理
MapReduce设计的一个理念就是“
计算向数据靠拢
”,而不是“数据向计算靠拢”,因为,移动数据需要大量的网络传输开销
MapReduce框架采用了
Master/Slave
架构,包括一个Master和若干个Slave。Master上运行JobTracker,Slave上运行TaskTracker
Hadoop框架是用Java实现的,但是,MapReduce应用程序则不一定要用Java来写
MapReduce工作流程
不同的Map任务之间不会进行通信
不同的Reduce任务之间也不会发生任何信息交换
用户不能显式地从一台机器向另一台机器发送消息
所有的数据交换都是通过MapReduce框架自身去实现的
流计算
流计算:实时获取来自不同数据源的海量数据,经过实时分析处理,获得有价值的信息
就到这儿吧,以上是我能看的下去的。
听说我的好兄弟有纪录一些重点,嗯。
Hadoop 大数据
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。