继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

Linux集群系列之一——集群基础概念

holdtom
关注TA
已关注
手记 1846
粉丝 240
获赞 991

集群

场景一

LAMP 
   http,web object简单无状态连接 
   200,50dynamic 
      prefork,2M 
      10M 
         50*10+150*2 M 

apache:进程切换,查询mysql, 网络IO,磁盘IO

200--->1000 
     800,200 
     1600+2000
解决方式
Scale ON  :向上扩展   换更好的硬件,如换主机 
注意:Scale On向上扩展,硬件增长比例与性能增长比例是不成线性的。而且相对于成本是高昂的。

Scale Out:  向外扩展

需要解决的问题

如何分配调度多台主机:
DNS解析

问题:DNS缓存以及DNS缓存服务器的缓存,以及每台主机都必须有独立IP。

方案

---->Load Balancing:LB  负载均衡 

进行调度,分配,分发(调度算法):

Round Robin: 轮调 
同一个客户端请求,并发的资源可能来自多台服务器。
服务器的硬件,性能有所差异.
WRR:weight Round Robin 加权轮调 
考虑公平以及效率,权重weight。能者多劳。

场景二

不同服务器之间数据的同步
独立出来一台主机做为MYSQL服务器使用。
不同服务器中的数据保存在同一mysql服务器中,解决数据同步问题。
注意:发帖中的附件不能保存在数据库中,附件保存在其他存储设备中,数据库里面仅是一个指针指向附件具体存储的位置。
为了是附件也能在不同服务器进行访问,数据同步,可以在独立出来一台主机作为NFS服务器使用,附件则保存在NFs中,多台服务器都可以直接访问和存储。
网页的页面文件不应该放在NFS上,页面文件要放在本地服务器上,这样减少请求响应的时间。每台本地服务器上都存放页面文件的话,页面更新困难。
为了解决页面文件的更新困难问题,使用一台作为主的页面文件主机,每次只是更新这一台,并通知其他服务器,让其他主机主动过来参照更新页面文件。
实现 :rsync 只复制有差异的文件 ,可以远程
同步复制文件机制:
 例行计划任务+通知机制(更新即通知)
 
 机制: rsync+inotify 
 实时监控,页面一有更新,就通知,从服务器就来复制。
集群
Cluster 
LB:   load Balancing: 负载均衡集群 
HA:High Availiable 高可用 

注意:负载均衡集群具有高可用的能力,但不是高可用集群。高可用集群的主机之间要进行通信,发送heartbeat,以及宕机后,快速切换服务。
 而负载均衡集群的高可用能力是通过上面的调度服务器调度来实现。
  调度服务器如何知道后端服务器的是否在线或宕机,而进行调度分配?
   对后端服务器的健康检查;
   health check:健康检查   
   检查多次,检查在是否可用,不可用,则重新调度,即从集群中移除,如果检查发现,有可用的集群服务器,就将其加入到集群服务器中,接受调度分配。  '检查活到死,死到活'当服务器增多,调度器的资源有限,可能会成为整个系统的瓶颈。
为了解决上述问题,进行功能切分。不同功能进行不同集群。使调度器的效率很高。
   单一调度器,可能会出现宕机,损坏等,所以要为调度器配备一个备用的调度服务器。    
   
   primary-------standby 
standy:具备和primary配置一样,IP地址进行切换,自己服务启动。
primary 和 standby时刻通信,发送heartbeat(心跳数),一旦宕机,立即启动,进行切换。

调度器:

高可用和负载均衡:
负载均衡集群以提高服务的并发处理能力为着眼点的,高可用集群是提高系统始终在线能力为着眼点的。
LB:增加处理能力的,并发处理能力。
HA:增加系统的服务可用性
可用性= 正常在线时间/正常在线时间+故障处理时间   

 在线时间/(在线时间+故障时间)
 99%,99.9%提高了10倍的可用性 
 99.99% 99.999%
```language
高可用:HA
web 
   primary:IP,web app, 页面----- standby:IP,web app,页面  
   
                   NFS (瓶颈)
LAMP场景:
共享存储:
提高资源利用:
整合起来,web  和 mail 互为高可用 。运行的服务是分开的。

host1:IP1  web       host2:IP2   mail 
注意:某个资源只能被某个节点所占用
node:节点   主机 

host1: 
host2:
host3:   
  多个调度服务器互为高可用集群,要设置优先级,以及时时发送heartbeat,使用多播,组播的方式。还有集群事务信息。
  
DC:推选的事务协调员,如果挂了,就重新推选。

共享存储:
   1.RAID   DAS   块级别
   2.NFS    NAS   文件级别 

NAS 1000mbps 12.5MB/s 
DAS  320Mbps    
   


DAS:Direct Attached Storage直接附加存储
NAS:Network Attached Storage 网络附加存储。   
  
RAID与NFS
NFS对前端服务器而言,NFs就是文件共享服务器。数据请求是在文件级别上完成的。网络上是以文件
RAID,是磁盘阵列,是通过主板上的总线连接到RAID上,相当于本地存储设备,数据是在块级别上交换的。

磁盘:块级别  
    一个文件包含多个块。

    注意:通过DAS机制,若两个进程工作在一台主机上同时处理同一个文件,可以通过加锁,防止同时处理同一个文件。
    当两个进程工作在两个主机上,都同时处理DAS上的主机同一文件。
注意:两个主机同时加载同一个文件到各自内存里,修改后,将文件写回到DAS里,如果交叉,会是存储混乱。
NFS自身可以锁定两个同时写的操作。阻塞另一台主机的写操作。

如果由于没有及时传递heartbear信息,结果切换到备用的调度服务器,而主调度服务器还在写数据到DAS中,而standby也同时写同一个文件。左右就不协调了,称为split-brain:脑裂

解决办法:

1.STONITH:(Shoot The Other Node In The Head)
通过电源交换机(切断主机的电源)
2.fencing:隔离
   拒绝某一节点访问某一资源的机制,使服务器和存储设备断开。

 隔离级别:
    1.节点级别:STONTIN
    2.资源级别

注意:为了防止脑裂,集群分裂,高可用集群至少有3个节点,奇数个节点,仲裁机制,少数服从多数。

补充:
脑裂:本来一个大脑的两半球互相配合,变成了分裂成两个独立的大脑,都认为对方已死。在集群环境中,有这么几种可能造成"Split-Brain"现象:
        1、在集群环境中的节点间的心跳线同时断掉后,集群系统所处于的一种特殊状态。例如节点1和2组成一个集群,突然1和2间的心跳同时都断了,如果此前节点1正在运行应用,心跳都断掉后2开始去接管应用,强行加载数据,此时就是split-brain。
       2、集群中节点因为处理器忙或者其他原因暂时停止响应时,其他节点可能误认为该节点“已死”。
后果:节点间争夺共享磁盘(即资源)的访问权,都对共享文件系统产生读写操作,从而导致共享磁盘文件系统损坏。 
解决办法:使用硬盘心跳,scsi reservation,以及最极端的power fence。

HP:高性能集群(HBC)

High Performance 
   向量机 
   
   
数据存储,以及磁盘IO可能会产生瓶颈。

化整为零--->合并整合
每台计算机只处理所有数据的一部分,且每台计算机上只存储一部分数据。
每个节点既是计算节点,也是存储节点。

分布式存储:
   分布式文件系统
   
并行计算(处理)集群:
    分布式文件系统
    将大大任务切割为是小任务,分别进行处理的机制。
HP:科学运算集群



作者:若与
链接:https://www.jianshu.com/p/8926be8eebb1

打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP