34补3-3 rhcs集群基础应用

发布时间:2019-06-22 23:47:03编辑:auto阅读(1843)

    03rhcs集群基础应用


    配置luci/ricci(图形界面,重点掌握)

    配置环境

    node1:192.168.1.151CentOS6.5

    node2:192.168.1.152CentOS6.5

    node3:192.168.1.153CentOS6.5

    node3:192.168.1.154CentOS6.5

    [root@node1 ~]# ansible ha -m shell -a 'service NetworkManager stop'

    [root@node1 ~]# ansible ha -m shell -a 'chkconfig NetworkManager off'

    [root@node1 ~]# ansible ha -m shell -a 'yum -y install httpd'


    [root@node1 ~]# yum -y install ricci

    [root@node1 ~]# service ricci start

    [root@node1 ~]# netstat -tunlp

    Active Internet connections (only servers)

    Proto Recv-Q Send-Q Local Address               Foreign Address             State       PID/Program name   

    tcp        0      0 0.0.0.0:111                 0.0.0.0:*                   LISTEN      1181/rpcbind        

    tcp        0      0 0.0.0.0:22                  0.0.0.0:*                   LISTEN      1485/sshd           

    tcp        0      0 127.0.0.1:631               0.0.0.0:*                   LISTEN      1372/cupsd          

    tcp        0      0 127.0.0.1:25                0.0.0.0:*                   LISTEN      1561/master         

    tcp        0      0 0.0.0.0:47549               0.0.0.0:*                   LISTEN      1310/rpc.statd      

    tcp        0      0 :::111                      :::*                        LISTEN      1181/rpcbind        

    tcp        0      0 :::22                       :::*                        LISTEN      1485/sshd           

    tcp        0      0 ::1:631                     :::*                        LISTEN      1372/cupsd          

    tcp        0      0 ::1:25                      :::*                        LISTEN      1561/master         

    tcp        0      0 :::46746                    :::*                        LISTEN      1310/rpc.statd      

    tcp        0      0 :::11111                    :::*                        LISTEN      28236/ricci         

    udp        0      0 0.0.0.0:111                 0.0.0.0:*                               1181/rpcbind        

    udp        0      0 0.0.0.0:631                 0.0.0.0:*                               1372/cupsd          

    udp        0      0 0.0.0.0:638                 0.0.0.0:*                               1310/rpc.statd      

    udp        0      0 0.0.0.0:56208               0.0.0.0:*                               1310/rpc.statd      

    udp        0      0 0.0.0.0:932                 0.0.0.0:*                               1181/rpcbind        

    udp        0      0 :::111                      :::*                                    1181/rpcbind        

    udp        0      0 :::932                      :::*                                    1181/rpcbind        

    udp        0      0 :::35625                    :::*                                    1310/rpc.statd      

    [root@node2 ~]# yum -y install ricci && service ricci start

    [root@node3 ~]# yum -y install ricci && service ricci start

    [root@node1 ~]# ansible ha -m shell -a 'echo ricci:mageedu | chpasswd'

    [root@node4 ~]# yum -y install luci

    [root@node4 ~]# service luci start

    Point your web browser to https://node4:8084 (or equivalent) to access luci

    #可通过https://192.168.1.154:8084端口访问luci  


    以下操作通过浏览器进行

    1、登录luci

    wKioL1gAjbHwU_4gAACQ1JHlqL0483.jpg

    2、创建集群

    wKioL1gAjgWhnwMEAACM1WwlB4I828.jpg

    wKiom1gAjjDhWqC-AADso9-OeoY914.jpg

    备注:node结点的密码为ricci的密码,此处为mageedu,而不是root用户的登录密码


    3、创建Fence Devices

    依次选择“tcluster”、“Fence Devices”“Add”

    wKioL1gAjmnS2ReuAADbxsByisA971.jpg

    在出现的对话框中选择合适的配置,本次实验不作配置


    4、创建Failover Domains(故障转移域)

    依次选择“tcluster”、“Failover Domains”、“Add

    wKioL1gAjqzgsvNyAADcvKEYnEo818.jpg

    wKiom1gAjtyAA5AtAACzreKE2Ec588.jpg

    wKioL1gAjvzzjvEsAAEjr7cgrAs757.jpg


    5、配置Resources

    1IP Address

    wKiom1gAjyvw06hoAADqCunLJq0063.jpg

    点击“Apply”


    2)添加Script资源

    wKioL1gAj5HhMdptAADHeYAN-pU081.jpg

    点击“Apply”

    6、配置Service Groups

    1)创建webservice group

    wKiom1gAkBHSmMNjAADB6mzrysI851.jpg

    2)在webservice group中添加资源

    添加之前定义的IP AddressScript资源

    wKioL1gAkDvyQIONAADhZgn_wIo796.jpg

    wKiom1gAkFyCqeJbAADjWs1AuaQ959.jpg

    3)启动webservice组资源

    wKioL1gAkJiz2oqAAACSDrEBrUw603.jpg

    wKiom1gAkLrDJg2jAAEyRpvtqEU644.jpg

    发现服务正运行在node2结点


    测试:

    [root@node2 ~]# vim /var/www/html/index.html

    <h1>node2</h1>

    [root@node3 ~]# vim /var/www/html/index.html

    <h1>node3</h1>

    wKioL1gAkP7ho0J-AAAmPs2Ecy4414.jpg


    测试1:转移运行结点至node3

    wKiom1gAkUyRbQZPAACzF_AWGqw413.jpg

    wKioL1gAkWWQKfGZAACDIzWFN8I212.jpg

    wKiom1gAkXrQ2d3tAAAmrVtgbns529.jpg


    配置cman/rgmanager(命令行界面,了解)

    [root@node1 ~]# ansible ha -m shell -a 'service NetworkManager stop'

    [root@node1 ~]# ansible ha -m shell -a 'chkconfig NetworkManager off'

    #程序安装

    [root@node1 ~]# yum -y install cman rgmanager

    [root@node2 ~]# yum -y install cman rgmanager

    [root@node3 ~]# yum -y install cman rgmanager

    #创建集群

    [root@node1 ~]# ccs_tool create tcluster

    [root@node1 ~]# cd /etc/cluster/

    [root@node1 cluster]# ls

    cluster.conf  cman-notify.d

    [root@node1 cluster]# vim cluster.conf 

    [root@node1 cluster]# ccs_tool addfence meatware fence-manual

    [root@node1 cluster]# ccs_tool lsfence

    Name             Agent

    meatware         fence-manual

    [root@node1 cluster]# ccs_tool addnode -n 1 -f meatware node1

    [root@node1 cluster]# ccs_tool addnode -n 2 -f meatware node2 

    [root@node1 cluster]# ccs_tool addnode -n 3 -f meatware node3 

    [root@node1 cluster]# ccs_tool lsnode


    Cluster name: tcluster, config_version: 5


    Nodename                        Votes Nodeid Fencetype

    node1                              1    1    meatware

    node2                              1    2    meatware

    node3                              1    3    meatware

    [root@node1 ~]# ansible ha -m copy -a 'src=/etc/cluster/cluster.conf dest=/etc/cluster/'

    #启动cman

    [root@node1 cluster]# service cman start

    [root@node2 ~]# service cman start

    [root@node3 ~]# service cman start

    [root@node1 cluster]# clustat

    Cluster Status for tcluster @ Fri Oct 14 10:25:14 2016

    Member Status: Quorate


    Member Name                              ID   Status

    ------ ----                              ---- ------

    node1                                        1 Online, Local

    node2                                        2 Online

    node3                                        3 Online


    [root@node1 cluster]# service rgmanager start

    [root@node2 ~]# service rgmanager start

    [root@node3 ~]# service rgmanager start

    [root@node3 cluster]# cman_tool status

    Version: 6.2.0

    Config Version: 5

    Cluster Name: tcluster

    Cluster Id: 10646

    Cluster Member: Yes

    Cluster Generation: 16

    Membership state: Cluster-Member

    Nodes: 3

    Expected votes: 3

    Total votes: 3

    Node votes: 1

    Quorum: 2  

    Active subsystems: 8

    Flags: 

    Ports Bound: 0 177  

    Node name: node3

    Node ID: 3

    Multicast addresses: 239.192.41.191 

    Node addresses: 192.168.1.153 


    [root@node1 cluster]# cman_tool nodes

    Node  Sts   Inc   Joined               Name

      1   M      8   2016-10-14 10:23:55  node1

      2   M     12   2016-10-14 10:24:04  node2

      3   M     16   2016-10-14 10:24:09  node3

      

    [root@node1 cluster]# cman_tool services

    fence domain

    member count  3

    victim count  0

    victim now    0

    master nodeid 1

    wait state    none

    members       1 2 3 


    dlm lockspaces

    name          rgmanager

    id            0x5231f3eb

    flags         0x00000000 

    change        member 3 joined 1 remove 0 failed 0 seq 3,3

    members       1 2 3


    [root@node1 cluster]# service ricci start

    [root@node2 cluster]# service ricci start

    [root@node3 cluster]# service ricci start

    [root@node4 ~]# yum -y install luci

    [root@node1 cluster]# yum groupinfo "High availability"

    Group: High Availability

    Description: Infrastructure for highly available services and/or shared storage.

    Mandatory Packages:

      cman

    Default Packages:

      ccs

      omping

      rgmanager

    Optional Packages:

      cluster-cim

      cluster-glue-libs-devel

      cluster-snmp

      clusterlib-devel

      corosynclib-devel

      fence-virtd-checkpoint

      foghorn

      libesmtp-devel

      openaislib-devel

      pacemaker

      pacemaker-doc

      pacemaker-libs-devel

      pcs

      python-repoze-what-quickstart

      resource-agents

      sbd

      

    [root@node4 ~]# service luci start


关键字