集群
场景一
LAMP http,web object简单无状态连接 200,50dynamic prefork,2M 10M 50*10+150*2 M apache:进程切换,查询mysql, 网络IO,磁盘IO 200--->1000 800,200 1600+2000
解决方式
Scale ON :向上扩展 换更好的硬件,如换主机 注意:Scale On向上扩展,硬件增长比例与性能增长比例是不成线性的。而且相对于成本是高昂的。 Scale Out: 向外扩展
需要解决的问题
如何分配调度多台主机: DNS解析 问题:DNS缓存以及DNS缓存服务器的缓存,以及每台主机都必须有独立IP。
方案
---->Load Balancing:LB 负载均衡 进行调度,分配,分发(调度算法): Round Robin: 轮调 同一个客户端请求,并发的资源可能来自多台服务器。 服务器的硬件,性能有所差异. WRR:weight Round Robin 加权轮调 考虑公平以及效率,权重weight。能者多劳。
场景二
不同服务器之间数据的同步 独立出来一台主机做为MYSQL服务器使用。 不同服务器中的数据保存在同一mysql服务器中,解决数据同步问题。 注意:发帖中的附件不能保存在数据库中,附件保存在其他存储设备中,数据库里面仅是一个指针指向附件具体存储的位置。 为了是附件也能在不同服务器进行访问,数据同步,可以在独立出来一台主机作为NFS服务器使用,附件则保存在NFs中,多台服务器都可以直接访问和存储。 网页的页面文件不应该放在NFS上,页面文件要放在本地服务器上,这样减少请求响应的时间。每台本地服务器上都存放页面文件的话,页面更新困难。 为了解决页面文件的更新困难问题,使用一台作为主的页面文件主机,每次只是更新这一台,并通知其他服务器,让其他主机主动过来参照更新页面文件。 实现 :rsync 只复制有差异的文件 ,可以远程 同步复制文件机制: 例行计划任务+通知机制(更新即通知) 机制: rsync+inotify 实时监控,页面一有更新,就通知,从服务器就来复制。
集群
Cluster LB: load Balancing: 负载均衡集群 HA:High Availiable 高可用 注意:负载均衡集群具有高可用的能力,但不是高可用集群。高可用集群的主机之间要进行通信,发送heartbeat,以及宕机后,快速切换服务。 而负载均衡集群的高可用能力是通过上面的调度服务器调度来实现。 调度服务器如何知道后端服务器的是否在线或宕机,而进行调度分配? 对后端服务器的健康检查; health check:健康检查 检查多次,检查在是否可用,不可用,则重新调度,即从集群中移除,如果检查发现,有可用的集群服务器,就将其加入到集群服务器中,接受调度分配。 '检查活到死,死到活'当服务器增多,调度器的资源有限,可能会成为整个系统的瓶颈。 为了解决上述问题,进行功能切分。不同功能进行不同集群。使调度器的效率很高。 单一调度器,可能会出现宕机,损坏等,所以要为调度器配备一个备用的调度服务器。 primary-------standby standy:具备和primary配置一样,IP地址进行切换,自己服务启动。 primary 和 standby时刻通信,发送heartbeat(心跳数),一旦宕机,立即启动,进行切换。
调度器:
高可用和负载均衡:
负载均衡集群以提高服务的并发处理能力为着眼点的,高可用集群是提高系统始终在线能力为着眼点的。 LB:增加处理能力的,并发处理能力。 HA:增加系统的服务可用性 可用性= 正常在线时间/正常在线时间+故障处理时间 在线时间/(在线时间+故障时间) 99%,99.9%提高了10倍的可用性 99.99% 99.999% ```language
高可用:HA
web primary:IP,web app, 页面----- standby:IP,web app,页面 NFS (瓶颈)
LAMP场景:
共享存储: 提高资源利用: 整合起来,web 和 mail 互为高可用 。运行的服务是分开的。 host1:IP1 web host2:IP2 mail 注意:某个资源只能被某个节点所占用 node:节点 主机 host1: host2: host3: 多个调度服务器互为高可用集群,要设置优先级,以及时时发送heartbeat,使用多播,组播的方式。还有集群事务信息。 DC:推选的事务协调员,如果挂了,就重新推选。 共享存储: 1.RAID DAS 块级别 2.NFS NAS 文件级别 NAS 1000mbps 12.5MB/s DAS 320Mbps DAS:Direct Attached Storage直接附加存储 NAS:Network Attached Storage 网络附加存储。 RAID与NFS NFS对前端服务器而言,NFs就是文件共享服务器。数据请求是在文件级别上完成的。网络上是以文件 RAID,是磁盘阵列,是通过主板上的总线连接到RAID上,相当于本地存储设备,数据是在块级别上交换的。 磁盘:块级别 一个文件包含多个块。 注意:通过DAS机制,若两个进程工作在一台主机上同时处理同一个文件,可以通过加锁,防止同时处理同一个文件。 当两个进程工作在两个主机上,都同时处理DAS上的主机同一文件。 注意:两个主机同时加载同一个文件到各自内存里,修改后,将文件写回到DAS里,如果交叉,会是存储混乱。 NFS自身可以锁定两个同时写的操作。阻塞另一台主机的写操作。 如果由于没有及时传递heartbear信息,结果切换到备用的调度服务器,而主调度服务器还在写数据到DAS中,而standby也同时写同一个文件。左右就不协调了,称为split-brain:脑裂
解决办法:
1.STONITH:(Shoot The Other Node In The Head) 通过电源交换机(切断主机的电源) 2.fencing:隔离 拒绝某一节点访问某一资源的机制,使服务器和存储设备断开。 隔离级别: 1.节点级别:STONTIN 2.资源级别 注意:为了防止脑裂,集群分裂,高可用集群至少有3个节点,奇数个节点,仲裁机制,少数服从多数。 补充: 脑裂:本来一个大脑的两半球互相配合,变成了分裂成两个独立的大脑,都认为对方已死。在集群环境中,有这么几种可能造成"Split-Brain"现象: 1、在集群环境中的节点间的心跳线同时断掉后,集群系统所处于的一种特殊状态。例如节点1和2组成一个集群,突然1和2间的心跳同时都断了,如果此前节点1正在运行应用,心跳都断掉后2开始去接管应用,强行加载数据,此时就是split-brain。 2、集群中节点因为处理器忙或者其他原因暂时停止响应时,其他节点可能误认为该节点“已死”。 后果:节点间争夺共享磁盘(即资源)的访问权,都对共享文件系统产生读写操作,从而导致共享磁盘文件系统损坏。 解决办法:使用硬盘心跳,scsi reservation,以及最极端的power fence。
HP:高性能集群(HBC)
High Performance 向量机 数据存储,以及磁盘IO可能会产生瓶颈。 化整为零--->合并整合 每台计算机只处理所有数据的一部分,且每台计算机上只存储一部分数据。 每个节点既是计算节点,也是存储节点。 分布式存储: 分布式文件系统 并行计算(处理)集群: 分布式文件系统 将大大任务切割为是小任务,分别进行处理的机制。 HP:科学运算集群
作者:若与
链接:https://www.jianshu.com/p/8926be8eebb1