营销策略有哪些?(新媒体营销策略有哪些)
698
2022-05-30
导语
前文《数据库容器化未来已来》我们介绍了基于Kubernetes实现的下一代私有 RDS。其中调度策略是具体实现时至关重要的一环它关系到RDS 集群的服务质量和部署密度。那么RDS 需要怎样的调度策略呢本文通过数据库的视角结合Kubernetes的源码分享一下我的理解。
It was the best of times, it was the worst of times。—— by Dickens.
人类从爬行到直立用了几百万年但是我们这些码农从Bare Metal到 Container只花了几万分之一的时间。
我有个朋友是维护Mainframe的他还在使用40年前的系统。
调度策略很重要
看看巨人们在干什么有助于我们更好的理解这个世界。
Google Borg
先看看Google是如何看待Borg (Kubernetes 的前身)的核心价值。在Google paper 中开篇就定义了 Borg
It achieves high utilization by combining admission control, efficient task-packing,over-commitment, and machine sharing with process-level performance isolation.
里面还专门介绍了基于 CPI (Cycles Per Instruction)测量资源利用率的方式。
AWS RDS
再看看公有云的领头羊 AWS是这样描述其RDS产品的
不管是Google Borg还是AWS除了提供更灵活更开放更兼容更安全可用性更高的系统都将cost-efficienthigh utilization放到了更重要的位置。
提高部署密度减少硬件的需求量最终达到降低硬件投入的目标。同时必须满足业务需求。
本文尝试以数据库的视角从多个角度阐述RDS场景需要怎样的调度策略。
说明:
为了实现更精细化的调度策略Kubernetes(版本1.7) 调度器提供了17个调度算法。这些算法分为两类Predicate和Priority通俗的描述是过滤和打分。设计思路大致如下
1.通过过滤算法从集群中出满足条件的节点
2.通过打分算法对过滤出来的节点打分并排名
3.挑出分数最高的节点如果有分数相同的随机挑一个。
本文将基于Kubernetes的实现结合RDS场景展开并不会把所有的算法流水账似的写一遍相关资料很多有兴趣的同学可以去看文档。具体实现见
① kubernetes/plugin/pkg/scheduler/algorithm/priorities
② kubernetes/plugin/pkg/scheduler/algorithm/predicates
下面进入主题。
调度策略
视角一计算资源调度策略
这里讨论的计算资源仅包含 CPUMemory
需要特别说明毕竟Kubernetes已经支持GPU。
看上去很简单挑选出一个满足资源要求的节点即可但是考虑到整合密度和数据库的业务特点并不简单我们还需要考虑到以下几点
峰值和均值
数据库的负载随着业务、时间、周期不断变化到底是基于峰值调度还是均值调度呢这是一个有关部署密度的问题最好的办法就像Linux里面限定资源的方式让我们设置Soft Limit 和Hard Limit以Soft Limit分配资源同时Hard Limit又能限定使用的最大资源。
Kubernetes也是这么做的它会通过 Request 和 Limit 两个阈值来进行管理容器的资源使用。
Pod是Kubernetes的调度单位
Requst作为Pod初始分配值Limit 限定了Pod能使用的最大值。分配时采用Requst值进行调度这里有个假设
同一节点上运行的容器不会同时达到 Limit 阈值
有效的实现了计算资源利用率的high utilization非常适合数据库开发或测试场景。
如果假设不成立当某节点运行的所有容器同时接近Limit并有将节点资源用完的趋势或者事实(在运行的过程中调度器会定期收集所有节点的资源使用情况“搜集”用词不太准确但便于理解)创建 Pod的请求也不会再调度到该节点。
以内存为例, 当Pod的请求超出Node可以提供的内存, 会以异常的方式告知调度器, 内存资源不足
同时基于优先级部分容器将会被驱逐到其他节点(例如通过重启 Pod 的方式)所以并不适合生产环境。
资源的平衡
对于长期运行的集群在满足资源的同时还要考虑到集群中各节点资源分配的平衡性。
类似Linux Buddy System仅仅分配进程需要的内存是不够的还要保障操作系统内存的连续性。
举个例子RDS集群有两个节点用户向RDS申请 2颗CPU和4GB内存 以创建 MySQL实例两节点资源使用情况如下
在资源同时满足的情况下调度会通过两个公式对节点打分。
基于已使用资源比率(Balanced Resource)打分实现如下
将节点资源输入公式可简化成
NodeA 分数 = int(1-math.Abs(8/16 - 8/32)) * float64(10) = 30/4
NodeB 分数 = int(1-math.Abs(8/32 - 16/64)) * float64(10) = 10
基于该算法Node B的分数更高。
再通过未使用资源(calculateUnused)持续打分。
该算法可简化成
cpu((capacity - sum(requested)) * 10 / capacity) + memory((capacity - sum(requested)) * 10 / capacity) / 2
有兴趣的同学可以算一下不再赘述。
数据库会被调度到综合打分最高的节点。
视角二 : 存储资源调度策略
存储资源是有状态服务中至关重要的一环也让有状态服务的实现难度远超无状态服务。
除了满足请求数据库的存储资源的容量要求调度策略必须要能够识别底层的存储架构和存储负载在提供存储资源的同时满足数据库的业务需求(比如数据零丢失和高可用)。
从2017年年初开始基于分布式存储技术,我们的RDS已经实现了计算和存储分离的架构。
在实现数据库的数据零丢失高可用的同时架构变得更通用更简单。但对企业级用户还远远不够cost-efficient 是考量产品成熟度的重要因素。
所以从一开始我们就以3种维度的存储QoS来思考这个问题
从功能角度 :
【存储资源分成两大类】
1) distribution基于分布式存储技术实现对 Flash 设备做了专门的 优化提供数据冗余和弹性扩容功能
2) local使用计算节点本地存储。
对于生产环境我们会申请distribution资源。而那些不太重要的或者临时性的譬如有的客户需要经常生成临时性的克隆库进行测试或者扩展临时备库以应对突发的业务高峰我们会申请 local资源。
从性能角度
我们又将distribution分成了两类high和medium以应业务不同的IOPSThrough putLatency需求。
IO密集型业务我们会分配high类型。对于计算密集型或者重要值很高的备库我们会分配medium类型。
从数据库角度
比如, 不同的数据库物理卷的挂载参数也不同
如果调度器能够实现, 将极大的提高存储资源的 cost-efficient。
这些特性带有明显的数据库业务特性原生的Kubernetes 调度器并不支持。但是我们通过二次开发Out of Cluster的方式实现了外置的Kubernetes storage provisoner并通过自定义的参数和代码实现和调度器的交互。
Kubernetes 会使用我们提供的storage provisoner创建存储资源.
这样Kubernetes的调度器就可以基于RDS的业务需求感知底层存储架构提供满足业务需求的调度服务。
除去需要的容量信息需要传递给调度器如下信息(就像请CPUMemory资源一样)
volume.beta.kubernetes.io/mount-options: sync
volume.orain.com/storage-type: "distribution"
volume.orain.com/storage-qos: "high"
volume.orain.com/dc-id: "278"
通过这四个参数将会告知。
从功能角度
volume.orain.com/storage-type”distribution”, 使用 distribution 类型存储资源。
从性能角度
volume.orain.com/storage-qos”high”, 从高性能存储池获取 Volume
从数据库角度
volume.beta.kubernetes.io/mount-optionssync, 使用特定 mount 参数
volume.orain.com/dc-id”278”, 使用编号为278的 Volume
视角三 : 关系型数据库
关系型数据库是有状态服务但要求更加复杂。比如我们提供了MySQL的Read Write Cluster (读写分离集群) 和Sharding Cluster (分库分表集群)每个数据库实例都有自己的角色。调度器必须感知集群角色以实现业务特点
比如, 基于数据库角色, 我们有如下调度需求:
ReadWrite Cluster的Master和Slave不能调度到同一节点
Master的多个Slave不能调度到同一节点
Sharding Cluster的每个分片不能调度到同一节点
某些备份任务须调度到指定Slave所在的节点
……
带有明显的业务(RDS)特点原生Kuberentes的调度策略并不能识别这些角色和关系。
与此同时容器的运行状态和RDS集群还在动态变化
因Failover迁移到其他节点
RDS集群Scale Out
以上具体的问题抽象成
亲和性(Affinity), 反亲和性(Anti-Affinity)和分布度(Spread Width)
再通过我们的二次开发将数据库的角色和业务流程集成到调度器中以满足全部需求。
亲和性(Affinity)
调度需求4可以归纳到这里
需求4 : 某些备份任务须调度到指定 Slave 所在的节点
在所有节点中找到指定 Slave 所在节点, 以确定待调度备份任务调度到哪个节点. 该需求必须满足, 不然备份任务无法成功。
建立已运行数据库和节点的关系在通过Affinity和Anti-Affinity公式对所有节点打分以此决定待调度数据库是否要调度到该节点。
查找该节点所有数据库实例
确定该节点是否有指定 Slave
反亲和性(Anti-Affinity)
需求1ReadWrite Cluster 的 Master 和 Slave 不能调度到同一节点
以待调度数据库的角色为输入建立已运行数据库和节点的关系再通过 Anti-Affinity 公式对所有节点打分以此决定待调度数据库是否要调度到该节点。
以需求1为例统计集群成员的分布情况该节点上同一数据库集群的成员越多分数越低。
反亲和性(Anti-Affinity)公式
对所有节点打分
分布度(Spread Width)
有种更时髦的叫法散射度(scatter width)
需求23可以归纳到这里。
以需求2为例, 统计集群成员的分布情况, 该节点上同一数据库集群的成员越多分数越低。
然后对所有节点打分公式如下
float64(schedulerapi.MaxPriority) * ((maxCountByNodeName -countsByNodeName[node.Name]) / maxCountByNodeName)
需要特别说明的是, 在RDS进行调度时
需求14必须满足
需求23尽量满足既可以。
必须和尽量也需要作为调度参数让调度器知晓。
结语
本文仅以RDS的视角从三个层级讲述了对调度器的要求。
真实的世界会更加复杂比如针对Read Write ClusterSlave 必须等待Master创建完毕而Sharding Cluster所有分片可以并发创建……
在设计产品和完成编码的过程中踩坑无数。不能否认的是站在巨人的肩膀上可以让我们看的更远。不知道Ending怎么写就这样吧。
---------------------
容器
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。