레드햇이  오픈스택에 대한  Contribution Rate를 높이기 시작했습니다.  클라우드 컴퓨팅 멀티 플랫폼 지원과 관련되어서 본격

적으로  관심을 갖기 시작했다는 이야기죠.. 기존의 클라우드 가상화 환경에서 제공되어지는 관리운영 환경은 단독적인 

매니지먼트에 운영 시스템에 대한 의존도를 높일수 밖에 없었으나, 이제는 클라우드 플랫폼 운영환경에 대한 Flexibility를 

높이고자 하는 단계로 접어들기 위한 전략의 시작이라 생각해도 무리는 없을듯 합니다. RedHat Cloud Forms의 그림이 

명확해 지내요.. 반면에 아파치 재단으로 등을 돌린 Citrix의 Cloud Stack과의 경쟁도 볼만할듯 합니다....


http://www.readwriteweb.com/cloud/2012/04/who-wrote-openstack-essex-a-de.php





Resolution
  • In order to run a script as a specific user within cluster, you need to write a custom script resource (a wrapper script).
  • Script resources need to be in System V init script format with start, stop, and status functions.  Red Hat cannot provide guidance on how to start, stop, and status check the custom resource.
  • The following example will work if the apporpriate sections are changed:

1. RHCS에서 솔루션 가동용 스크립트를 구성하기 위한 기본은 System V 형태로 작성되야 하면 아래와 

   형태로 맞추어서 작성이 되어야 합니다. 

 
=================================

case "$1" in
         start)  == 솔루션 구동부분 ==
                logger 'Starting custom script resource'
                # Start your custom script here. Provide the user name and the script to be run.
                su <user name> -c <script to be run>
                exit 0
               ;;
         stop)   == 솔루션 정지부분 ==
              logger 'Stopping custom script resource'
               # stop your service
               exit 0
               ;;
         status) == 솔루션 상태체크 ==
                # Devise some test to tell whether your service is still running.

                 Look for a pid file or ps or something. 

                # This will be run ever 30 seconds so make it something not intensive
                <status check commands>    
               exit 0
               ;;
         *)
               echo $"Usage: {start|stop|status}"
               exit 1
        esac 

===========================================================

2 위의 형태대로 스크립트 작성이 완료 되었으면 아래의 형태로 /etc/cluster/cluster.conf 파일안에 

 넣어주셔야 합니다. 

 <service name="test-service">
     <script name="test-script" file="/etc/cluster/test.sh"/>
 </service>



3. 스크립트 구성과 cluster.conf 파일내에 적용이 완료되었으면 버젼을 업데이트 해주시고 모든 클러스터

  와 동일하게 맞춰주시기 바랍니다. 

  ccs_tool update /etc/cluster/cluster.conf 


4. 정상적으로 업데이트가 완료되었으면 클러스터 서비스를 enable 시켜주셔서 테스트를 진행해 보시기 

  바랍니다. 

  clusvcadm -e service:kud01 

===========================================================


출처 : https://access.redhat.com/knowledge/solutions/40490

'Linux 이야기. > 유용한 쉘스크립트' 카테고리의 다른 글

리눅스 정기점검 스크립트  (0) 2013.05.30
Remove All FCP Sysfs.  (0) 2011.08.29
zLinux FCP SCSI Remove Script  (0) 2011.08.29
Linux FileSystem Mount 체크  (0) 2011.03.30
DEVICE=bond0
ONBOOT=yes
IPADDR=xxx.xxx.xxx.xxx
BOOTPROTO=none
NETMASK=255.255.255.0
TYPE=Ethernet
GATEWAY=xxx.xxx.xxx.xxx
USERCTL=no
BONDING_MASTER=yes
BONDING_OPTS="mode=active-backup miimon=100"
~

DEVICE=eth0
HWADDR=d4:85:64:c7:85:ce
NM_CONTROLLED=yes
MASTER=bond0
SLAVE=yes
ONBOOT=no
BOOTPROTO=none
USERCTL=no
 

DEVICE=eth1
HWADDR=D4:85:64:C7:85:D0
NM_CONTROLLED=yes
ONBOOT=no
MASTER=bond0
SLAVE=yes
TYPE=Ethernet
IPV6INIT=no
USERCTL=no

 

modprobe.conf 에서 /etc/modprobe.d  로 변경

[root@xxx modprobe.d]# vi bonding.conf [파일생성]

alias bond0 bonding

 

본딩모드 숫자로는 안먹네요

 

  • balance-rr or 0 — Sets a round-robin policy for fault tolerance and load balancing. Transmissions are received and sent out sequentially on each bonded slave interface beginning with the first one available.
  • active-backup or 1 — Sets an active-backup policy for fault tolerance. Transmissions are received and sent out via the first available bonded slave interface. Another bonded slave interface is only used if the active bonded slave interface fails.
  • balance-xor or 2 — Sets an XOR (exclusive-or) policy for fault tolerance and load balancing. Using this method, the interface matches up the incoming request's MAC address with the MAC address for one of the slave NICs. Once this link is established, transmissions are sent out sequentially beginning with the first available interface.
  • broadcast or 3 — Sets a broadcast policy for fault tolerance. All transmissions are sent on all slave interfaces.
  • 802.3ad or 4 — Sets an IEEE 802.3ad dynamic link aggregation policy. Creates aggregation groups that share the same speed and duplex settings. Transmits and receives on all slaves in the active aggregator. Requires a switch that is 802.3ad compliant.
  • balance-tlb or 5 — Sets a Transmit Load Balancing (TLB) policy for fault tolerance and load balancing. The outgoing traffic is distributed according to the current load on each slave interface. Incoming traffic is received by the current slave. If the receiving slave fails, another slave takes over the MAC address of the failed slave.
  • balance-alb or 6 — Sets an Active Load Balancing (ALB) policy for fault tolerance and load balancing. Includes transmit and receive load balancing for IPV4 traffic. Receive load balancing is achieved through ARP negotiation.

+ Recent posts