设为首页收藏本站language 语言切换
查看: 174|回复: 1
收起左侧

LVS之DR(Direct Routing)直接路由模式

[复制链接]
发表于 2018-11-19 14:40:28 | 显示全部楼层 |阅读模式
武汉中继者IT教育平台,致力于培养优秀的IT工程师,做到 “随需、随学、随问、随答”



关于LVS
lvs 实现负载均衡

    Internet的快速增长使多媒体网络服务器面对的访问数量快速增加,服务器需要具备提供大量并发访问服务的能力,因此对于大负载的服务器来讲,CPU、I/O处理能力很快会成为瓶颈。由于单台服务器的性能总是有限的,简单的提高硬件性能并不能真正解决这个问题。为此,必须采用多服务器和负载均衡技术才能满足大量并发访问的需要。Linux虚拟服务器(Linux Virtual Servers,LVS)使用负载均衡技术将多台服务器组成一个虚拟服务器。它为适应快速增长的网络访问需求提供了一个负载能力易于扩展,而价格低廉的解决方案。

LVS结构与工作原理
     LVS由前端的负载均衡器(Load Balancer,LB)和后端的真实服务器(Real Server,RS)群组成。RS间可通过局域网或广域网连接。LVS的这种结构对用户是透明的,用户只能看见一台作为LB的虚拟服务器(Virtual Server),而看不到提供服务的RS群。当用户的请求发往虚拟服务器,LB根据设定的包转发策略和负载均衡调度算法将用户请求转发给RS。RS再将用 户请求结果返回给用户。同请求包一样,应答包的返回方式也与包转发策略有关。

IP虚拟服务器IPVS
1.IPVS软件实现了三种IP负载均衡技术:

    [1].VS/NAT
    通过网络地址转换,调度器重写请求报文的目标地址,根据预设的调度算法,将请求分派给后端的真实服务器;真实服务器的响应报文通过调度器时,报文的源地址被重写,再返回给客户,完成整个负载调度过程。
    [2].VS/TUN
    采用NAT技术时,由于请求和响应报文都必须经过调度器地址重写,当客户请求越来越多时,调度器的处理能力将成为瓶颈。为了解决这个问题,调度器把请求报 文通过IP隧道转发至真实服务器,而真实服务器将响应直接返回给客户,所以调度器只处理请求报文。由于一般网络服务应答比请求报文大许多,采用VS/TUN技术后,集群系统的最大吞吐量可以提高10倍。
    [3].VS/DR
    VS/DR通过改写请求报文的MAC地址,将请求发送到真实服务器,而真实服务器将响应直接返回给客户。同VS/TUN技术一样,VS/DR技术可极大地 提高集群系统的伸缩性。这种方法没有IP隧道的开销,对集群中的真实服务器也没有必须支持IP隧道协议的要求,但是要求调度器与真实服务器都有一块网卡连 在同一物理网段上。

2.十种负载调度算法

    [1].轮叫调度(Round Robin)
    调度器通过“轮叫”调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。
    [2].加权轮叫(Weighted Round Robin)
    调度器通过”加权轮叫”调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
    [3].最少链接(Least Connections)
    调度器通过”最少连接”调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用”最小连接”调度算法可以较好地均衡负载。
    [4].加权最少链接(Weighted Least Connections)
    在集群系统中的服务器性能差异较大的情况下,调度器采用”加权最少链接”调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
    [5]基于局部性的最少链接(Locality-Based Least Connections)
    “基于局部性的最少链接”调度算法是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。该算法根据请求的目标IP地址找出该目标IP地址最近 使用的服务器,若该服务器 是可用的且没有超载,将请求发送到该服务器;若服务器不存在,或者该服务器超载且有服务器处于一半的工作负载,则用”最少链接”的原则选出一个可用的服务器,将请求发送到该服务器。
    [6]带复制的基于局部性最少链接(Locality-Based Least Connections with Replication)
    “带复制的基于局部性最少链接”调度算法也是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。它与LBLC算法的不同之处是它要维护从一个目标IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP地址到一台服务器的映射。该算法根据请求的目标IP地址找出该目标IP地址对应的服务 器组,按”最小连接”原则从服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器,若服务器超载;则按”最小连接”原则从这个集群中选出一 台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的程度。
    [7].目标地址散列(Destination Hashing)
    “目标地址散列”调度算法根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
    [8]源地址散列(Source Hashing)
    “源地址散列”调度算法根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
    [9]. 最短的期望的延迟(Shortest Expected Delay Scheduling SED)
    基于wlc算法。这个必须举例来说了ABC三台机器分别权重123,连接数也分别是123。那么如果使用WLC算法的话一个新请求进入时它可能会分给ABC中的任意一个。使用sed算法后会进行这样一个运算A:(1+1)/1B:(1+2)/2C:(1+3)/3根据运算结果,把连接交给C
    [10].最少队列调度(Never Queue Scheduling NQ)
    无需队列。如果有台realserver的连接数=0就直接分配过去,不需要在进行sed运算

DR(Direct Routing)模式配置实现LVS




1,配置负载均衡,高可用yum源
    [root@Server1 haproxy]# cat /etc/yum.repos.d/yum.repo
    [yum]
    name = yum
    baseurl=http://172.25.12.250/rhel6.5
    gpgcheck=0

    [HighAvailability]    #高可用模块
    name = HighAvailability
    baseurl=http://172.25.12.250/rhel6.5/HighAvailability
    gpgcheck=0

    [LoadBalancer]        #负载均衡模块
    name = LoadBalancer
    baseurl=http://172.25.12.250/rhel6.5/LoadBalancer
    gpgcheck=0

    [ResilientStorage]
    name = ResilientStorage
    baseurl=http://172.25.12.250/rhel6.5/ResilientStorage
    gpgcheck=0

    [ScalableFileSystem]
    name = ScalableFileSystem
    baseurl=http://172.25.12.250/rhel6.5/ScalableFileSystem
    gpgcheck=0

    #######################################################
    HighAvailability                    HighAvailability                                56
    LoadBalancer                        LoadBalancer                                  4
    ResilientStorage                    ResilientStorage                            62
    ScalableFileSystem                  ScalableFileSystem                   7
    yum                                                         yum                                  3,690
    repolist: 3,819
    #######################################################

2.安装ipvsadm
    yum install -y ipvsadm
    ipvsadm是管理集群服务的命令行工具,用于管理LVS的策略规则
    ipvsadm -A -t 172.25.12.100:80 -s rr
    ipvsadm -a -t 172.25.12.100:80 -r 172.25.12.2:80 -g
    ipvsadm -a -t 172.25.12.100:80 -r 172.25.12.3:80 -g
    ipvsadm -ln   #查看策略
    /etc/init.d/ipvsadm save
    /etc/init.d/ipvsadm stop
    /etc/init.d/ipvsadm start

4.添加vip
    server1      #服务端中添加ip
    ip addr add 172.25.12.100/24 dev eth0
    server*  #在各个客户机中添加ip
    ip addr add 172.25.12.100/24 dev eth0
    做vip掩饰,不对外宣布
    yum install -y arptables_jf
    arptables -A IN -d 172.25.12.100 -j DROP   #对通过100进入的数据进行丢弃
    arptables -A OUT -s 172.25.12.100 -j mangle --mangle-ip-s 172.25.12.*  #将从出去的数据通过172.25.12.*出去
    /etc/init.d/arptables_jf save     #永久保存设置

测试

    curl 172.25.200.100     访问调度器
    arp -an | grep 100         查看100的mac地址,会发现访问的是调度器的ip,ip与调度器的mac对应
    arp -d 172.25.200.100    清空arp的缓存
    arp -a                               可以查看arp所有请求信息
ldirectord + lvs
  • 安装
    yum install -y ldirectord-3.9.5-3.1.x86_64.rpm
    rpm -ql ldirectord    #查找配置文件
    mv /usr/share/doc/ldirectord-3.9.5/ldirectord.cf /etc/ha.d/   
    #移动到这里的原因是/etc/init.d/ldirectord中配置文件指向为这里

  • 修改配置文件
    cd /etc/ha.d/
    vim ldirectord.cf
     24 # Sample for an http virtual service
     25 virtual=172.25.12.100:80     #vip指定
     26         real=172.25.12.2:80 gate    #后端指定
     27         real=172.25.12.3:80 gate
     28         fallback=127.0.0.1:80 gate    #当前面的都挂掉以后调度器充当服务器
     29         service=http
     30         scheduler=rr
     31         #persistent=600
     32         #netmask=255.255.255.255
     33         protocol=tcp
     34         checktype=negotiate
     35         checkport=80
     36         request="index.html"    #后端检查位置
     37         #receive="Test Page"    #后端检查页面内容
     38         #virtualhost=www.x.y.z

    ipvsadm -C   清除规则
    /etc/init.d/ldirectord start    #重新启动ldirectord服务
    ipvsadm -ln   查看规则,ldirectord会将规则自动添加上去
    并且该服务提供健康检查,如果有一个RS挂掉以后,他会在规则中将它去除,如果全部都挂掉以后,VS将充当服务器,一般这个服务器的页面写该网站正在维护,便于减少流量

keepalived + lvs
    keepalived这个服务也提供高可用,但是它可以提供负载均衡,Keepalived的作用是检测服务器的状态,如果有一台web服务器宕机,或工作出现故障,Keepalived将检测到,并将有故障的服务器从系统 中剔除,同时使用其他服务器代替该服务器的工作,当服务器工作正常后Keepalived自动将服务器加入到服务器群中,这些工作全部自动完成,不需要人 工干涉,需要人工做的只是修复故障的服务器。

     源码安装
    tar zxf keepalived-1.4.0.tar.gz
    cd keepalived-1.4.0/

    vim INSTALL      #查看安装文档
    yum install -y openssl-devel libnl3-devel ipset-devel iptables-devel libnfnetlink-devel    一些依赖性软件,在文档中可以看到
    yum install -y libnfnetlink-devel-1.0.0-1.el6.x86_64.rpm
    yum install -y libnl-devel

    ./configure --prefix=/usr/local/keepalived --with-init=SYSV     #源码安装三部曲   (1)

    make     (2)
    make install (3)

    因为该软件的家目录和电脑的家目录不一致,如果打开会找不到软件位置,所以需要设置软链接
    ln -s /usr/local/keepalived/etc/keepalived/ /etc/
    ln -s /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
    ln -s /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/
    ln -s /usr/local/keepalived/sbin/keepalived /sbin/

    chmod +x /etc/init.d/keepalived
    创建备用服务器的时候可以将/etc/init.d/keepalived 直接发给备用服务器,然后创建软链接
    如果可以正常启动服务说明安装过程没有问题

修改配置文件

    cd /etc/keepalived/

    vim keepalived.conf          #编辑配置文件,修改后的内容如下
    ! Configuration File for keepalived

    global_defs {
       notification_email {
        root@localhost                     #邮件发送到地址
       }
       notification_email_from keepalived@localhost
       smtp_server 127.0.0.1
       smtp_connect_timeout 30
       router_id LVS_DEVEL
       vrrp_skip_check_adv_addr
      # vrrp_strict                      所用版本2.06   如果不将这个语句注释,启动以后会自动给火墙里面加拒绝所有的策略
       vrrp_garp_interval 0
       vrrp_gna_interval 0
    }

    vrrp_instance VI_1 {
        state MASTER                                    # 将这个机器设置为主服务器,在备用机器里面应该设置为BACKUP
        interface eth0
        virtual_router_id 12
        priority 100                                        #权重越大越优先,备用机器可以将权重减小,如果性能相同,无所谓
        advert_int 1
        authentication {
            auth_type PASS
            auth_pass 1111
        }
        virtual_ipaddress {
        172.25.12.100                                      #vip
        }
    }

    virtual_server 172.25.12.100 80 {
        delay_loop 3
        lb_algo rr
        lb_kind DR                                          #DR模型
        #persistence_timeout 50
        protocol TCP

        real_server 172.25.12.2 80 {              #RS的配置
            weight 1
            TCP_CHECK
                connect_timeout 3
                retry 3
                delay_before_retry 3
            }
        }

        real_server 172.25.12.3 80 {                          #RS配置
            weight 1
        TCP_CHECK
                connect_timeout 3
                retry 3
                delay_before_retry 3
            }
        }
    }



测试
echo c > /proc/sysrq-trigger                   直接使内核崩溃,可以模拟VS挂掉,重新启动以后恢复
curl 172.25.12.100           如果两个RS的发布页面不同,执行这条命令多次会轮流交换,实现(负载均衡)
可以创建两个RS两个VS来测试

RS中安装httpd
该软件也有健康检查功能,但是如果RS都挂掉以后就全挂了,VS不会去充当RS
如果将主VS挂掉以后,备用的VS将会自动顶替位置  (高可用)
注意:需要在同一个网段

总结:ldirectord是与keepalived之间是冲突的,所以需要关闭ldirectord在进行keepalived 的实验的时候。
idrectord 提供负载均衡,提供健康检查,可以VS充当RS来提供页面
keepalived需要源码编译,提供高可用和负载均衡,健康检查,不能VS充当RS

您需要登录后才可以回帖 登录 | 论坛注册

本版积分规则

QQ|Archiver|手机版|小黑屋|sitemap|鸿鹄论坛 ( 京ICP备14027439号 )  

GMT+8, 2025-4-19 04:47 , Processed in 0.095136 second(s), 24 queries , Redis On.  

  Powered by Discuz!

  © 2001-2025 HH010.COM

快速回复 返回顶部 返回列表