1. 리눅스 시스템 성능 프로 파일링 기법 - 1. Perf 툴에 대한 개요


리눅스 커널 성능과 관련되서 주된 포인트는 시스템 성능 전반에 미치는 Event call 부분에 대해서 정확하게

trace 할수 있느냐가 가장 주요한 포인트가 될것이다, 즉 User Space 영역에서 호출된 Event 들에 대해서

어느 구간에서 Event call이 빈번하게 일어나는지 또한 어느 System Layer에서 병목이 일어나는가에 탐지를

기본의 시스템 툴을 통해서는 구체적인  Trace가 어렵다는데 있을 것이다.

CPU, Memory, Block Device I/O 등 커널에서 Event handling 하는 모든 영역을 함수 레벨까지 측정할수 있는

성능측정 도구라고 할수 있다





  • 발표자 : 김용기 부장님 / Ansible Korea 운영자 / Redhat Korea
  • 세션 소개 : Ansible을 이용한 인프라 자동화에 대한 구현





  • 발표자 : 진광훈님, IBM Tech Architect
  • 세션 소개 : 최근 핫 이슈인 인공기능에 대한 재미있는 이야기 – 실제 사례를 통한 IBM의 딥러닝 아키텍쳐 및
    Power AI 소개




  • 발표자 : 양지욱님,  Devops Korea 운영자
  • 세션 소개 : Docker 컨테이너 관리 솔루션인 Rancher를 이용한 서비스 연속 배포





  • 발표자 : IBM Cloud 사업부
  • 세션 소개 : IBM의 클라우드 (Bluemix) 의 차별화 포인트 및 제공 기능을 자세히 알아보






  • 발표자 : 송창안 과장  / Redhat Korea
  • 세션 소개 : CRIU 사용법





  • 발표자 :  김동현  (KT DS Assi. Manager)
  • 세션 소개 :  오픈소스 기반 PaceMaker를 이용한 고가용성 클러스터 구축에 대한 소개




  • 발표자 : 심장훈 매니저님 (Canonical Cloud Consultant)
  • 세션 소개 : Canonical 서비스 배포 관리 툴인 JuJu를 이용한 OpenStack 서비스 배포 및 설정에 대한 소개



  • 발표자 : Ryusuke Kajiyama
    (Oracle MySQL Sales Consulting Senior Manager, Asia Pacific & Japan)
  • 세션 소개 :
    MySQL 5.7 short updates
    – Performance Tuning : What is “Performance”, Key points in MySQL architecture
    – Key commands, logs, tools : SHOW VARIABLES, SHOW STATUS, EXPLAIN, Performance Schema, SYS schema, Slow query logs, Workbench Visual EXPLAIN, Workbench Performance Report, MEM / Query Analyzer, Thread Pool – Parameters : Network, Per thread (sort_buf, join_buf etc), InnoDB






  • 발표자 : 김완희 대표 (ISBC 대표)
  • 세션 소개 :  Cloud 환경에 IDC Infra 모니터링 할수 있는 Nagios XI Enterprise 대한 소개 및 시연




  • 발표자 : 김완희 대표 (ISBC 대표)
  • 세션 소개 :  리눅스 기반의 Open File system인 Lustre(Intel IEEL포함) 와 OpenZFS 에 대한 소개




1. 리눅스 패키지 매니지 먼트 소개 / 발표자 : GS SHOP 양지욱 매니저





3. 엔터프라이즈 리눅스 Kernel Perforamnce Tuning 방법론 소개 / 발표자 : 한진구 차장님






3. OpenStack with Kubernets / 발표자 : 차동휘 차장님








1. zinst 패키지 기반 리눅스 중앙관리 시스템 

발표자 : 양지욱 과장 (GS홈쇼핑) 



2. 분산파일 시스템 GlusterFS 소개 및 특징 
발표자 : 이호성 차장 (오픈소스 컨설팅, 한국리눅스 사용자 그룹 운영자)


3. 리눅스 커널 코어 분석 방법론 

발표자 : 이미르 (한국 오라클) 


Case_1_memoryissue.odt

Case_2_kernelbug.odt

Case_3NMI_signal_partial.odt

4. Linux RBAC with LDAP 

발표자 : 송상준 부장 (서진디에스에이) 



안녕하세요 한국 리눅스 사용자 그룹 이호성 (Tommy Lee) 입니다. 드디어 내일 커뮤니티 세미나가 시작됩니다.

관련해서 일정과 약도를 아래와 같이 공지해 드립니다..오실때 아래의 내용을 참고하시면 찾아오실때

도움이 되실듯 합니다.

또한 몇가지 양해의 말씀을 드렸으면 합니다.


Percona 클러스터와 관련된 내용을 강의해 주시기로 했던 분께서 이번 세미나에  불가피한 사정으로 참석이

어렵게 되셔서, 다음번 세미나때  다시한번  요청을 드리기로 했습니다. 관련된 내용을 기대하셨던 분들께

양해의 말씀을 드리며, 다음번 세미나때 관련 내용이 전달 될수 있게, 준비하도록 하겠습니다.


두번째는  소규모 세미나인데도 불구하고 참 많은 분들께서 참석 의사를 밝혀 주셨습니다. 더군다나 봄날의 토요일

오후이면 시간 내기가 쉽지 않으실 텐데 이렇게 많은 분들께서 시간을 함께 하시겠다고 신청해 주셔서

너무나 감사할 따름 입니다. 한 가지 걱정인 것은 오시는 분들에 비해서 장소가 많이 협소 할듯 합니다. ㅠㅠ

최대 30 ~ 40명 정도 (최대 40명) 되는 세미나 실이기 때문에 참석을 밝히신 모든 분들을 수용하기 에는 어려움이

따를수도 있을 듯 합니다.. 모든 분들께서 함께 참석하 실수 있도록  넉넉한 공간을 빌리지 못한 점 죄송합니다.

다음번 세미나 때는 더 큰 장소를 빌려서 더 많은 분들이 많은 것들을 공유하고 나눌수 있는 장을 마련해 보도록

하겠습니다.


1. 일정 : 2014년 4월19일

2. 시간 : 오후 2시 ~ 5시

3. 장소 : 한빛 미디어 1층 세미나실

4. 주소 : 서울시 마포구 양화로 7길 83 (구 서교동 480-26)

Agenda

1. Linux kernel core 분석 방법론 

   - 강사: 이미르 (한국 오라클 GSS)

2. zinst 패키지 기반의 리눅스 중앙관리 시스템

    - 강사 : 양지욱 과장 (GS샵) 


3. GlusterFS를 이용한  NAS 솔루션

    - 강사 : 이호성 차장 (오픈소스 컨설팅, 한국리눅스 사용자 그룹 운영자) 

4. Linux RBAC with LDAP 

   
 - 강사 : 송상준 부장 (서진 디엔에스)




RHEL6가 나오면서 부터 NUMA 지원 여부에 대해서 좀 더 강력해 지는듯 합니다.






LVM으로 구성된 파일 시스템에 대한 사이즈를 조정하려면 우선 모든 데이타에 대해서
안정하게 백업을 받아 놓으셔야 합니다.  모든 데이타가 정상적으로 백업이 되었다면, 아래의
절차대로 차분하게 Step by Step으로 진행하시면 됩니다.

/mnt 파일시스템 축소 명령어

# umount /mnt   ## 파일시스템 작업 전 unmounting

# e2fsck –f /dev/mapper/vg01-lvol01   ## 파일시스템 축소 작업 전, 파일시스템 체크

# resize2fs –f /dev/mapper/vg01-lvol01 70G   ## 파일시스템을 70G로 축소

# lvreduce –L -19G /dev/mapper/vg01-lvol01   ## lv  19G 축소

# lvs   ## lv 사이즈 확인

# mount /dev/mapper/vg01-lvol01 /mnt   ## 파일시스템 mount

# df   ## mount 및 사이즈 정상 확인

 

/TESTS 파일시스템 확장 명령어

# umount /TESTS   ## 파일시스템 작업 전 unmounting

# lvextend –L +40G /dev/mapper/vg01-lvol02   ## LV 40G 확장

# e2fsck –f /dev/mapper/vg01-lvol02   ## 파일시스템 확장 전, 파일시스템 체크

# resize2fs /dev/mapper/vg01-lvol02   ## 파일시스템 확장

# lvs   ## lv 사이즈 확인

# mount /dev/mapper/vg01-lvol02 /TESTS   ## 파일시스템 mount

# df   ## mount 및 사이즈 정상 확인


리눅스 운영체제 설치 완료 및 외장형 디스크를 연결한 후에 시스템을 재부팅을 하면 디스크의 순서가 
변경되서 올라오는 경우가 있습니다..(PCI로 연결된 이더넷도 순서가 변경되서 올라오죠 아마..ㅜㅜ)
시스템이 재부팅 되면 Disk의 PCI 버스등 여러가지 X86 아키텍쳐상 가장 먼저 전기신호를 받고 감지된 
디스크를 가장 우선순위에 두고 인식 하기 때문이겠죠, 관련해서 아래와 같이 디스크의 순서 즉 DISK Order에 대한 부분을 처리하는 Work Arround 입니다. 

문제

  • Originally the system has one local disk /dev/sda, then  connected with a new external storage (a storage array or a  fiber-channel or a SAS disk). After the system was booted up, the  internal disk on the server were changed to /dev/sdb while the external disks on the fiber storage were now /dev/sda.

  • How to control scsi device ordering during boot. For instance, having the local storage be mapped to sd names before the SAN storage. An example of this would /dev/sda being local and /dev/sdb being external.

  • scsi order discovery between local RAID and HBA Qlogic

  • Sometimes when we reboot a server which take part in cluster (and only this server currently), the boot hang because HBA Qlogic card is seen as scsi0 instead of local RAID and so no boot partition is available.

환경

  • Red Hat Enterprise Linux 5
  • Red Hat Enterprise Linux 6
  • SAN/Storage

해결

  • There are various options that can help control individual device/path names:
  • Specify a module load order. For example: if you are using the modules ips and qla2200 for internal and external storage and wanted ips module to load first, we could add something similar to the lines below in /etc/modprobe.d/scsi-order.conf

install qla2200 { /sbin/modprobe ips; } ; /sbin/modprobe --first-time --ignore-install qla2200

  • Next it is important to rebuild your initramfs, which can be done by following the article below How do I rebuild the initial ramdisk image in Red Hat Enterprise Linux?.

  • Note: scsi-order.conf is a chosen name and can be changed to suit your needs.

  • Specify the module load ordering in the bootloader, in /boot/grub/grub.conf. The following arguments simply needed to be appended to the kernel line.

rdloaddriver=ips,qla2200

 [출처 : https://access.redhat.com/site/solutions/67778]

 [참고 : https://access.redhat.com/site/solutions/44389]

 [참고 : https://access.redhat.com/site/node/45626]

Setup SAN Boot for RHEL 6.x using native multipath on EMC storage

Requirements:
1) RHEL 6.x (most apply to RHEL 5.x too, RHEL 5.x use mkinitrd instead of Dracut and the /etc/multipath.conf is slightly different refer to Red Hat KB in reference section)
2) EMC storage was setup with Active/Active (ALUA)
3) Boot LUN was presented with single path for initial install


Procedures:

1. Server boots up after initial install
2. Login to server as root to enable multipath
[root@server1]#mpathconf --enable –-with_multipathd y
3. Edit /etc/multipath.conf and make sure it only contains following valid parameters

blacklist {
}


defaults {
 user_friendly_names yes
}
devices {
  device {
    vendor "DGC"
    product ".*"
    product_blacklist "LUNZ"
    hardware_handler "1 alua"   
    path_checker directio    
    prio alua                
  }
}
4.Find out the logical path the root disk is mapped
[root@server1]#multipath –v3 
It should be /dev/mapper/mpatha

5. Create initramfs with multipath module
[root@server1]#dracut --force -–add multipath

6. Make sure multipath.conf is included in initrd image
[root@server1]#lsinitrd /boot/initramfs-*.x86_64.img | grep multipath.conf
-rw-r--r--   1 root     root         2525 Feb 27 13:31 etc/multipath.conf
7. Modify the /boot/grub/device.map and change
 (hd0) /dev/sda    to
 (hd0) /dev/mapper/mpatha
This is assuming the boot disk is on /dev/mapper/mpatha as verified in step 2 above.

8. Reboot the server.

9. Verify multipath, check hwhandler='1 alua' and member disk sda for mpatha
[root@server1]#multipath –ll 
mpatha (3600601609973310067eb1e1ed69ae311) dm-0 DGC,VRAID
size=150G features='1 queue_if_no_path' hwhandler='1 alua' wp=rw
`-+- policy='round-robin 0' prio=10 status=enabled
  |- 1:0:0:0 sda 8:0   active ready running
  

10. Ask storage administrator to enable other paths for boot LUN.
11. Reboot server again after multipath is aenabled in storage too
12. Login server to verify all paths, check hwhandler='1 alua' prio>0
if hwhandler='1 emc' or prio=0 means PNR mode

[root@server1]#multipath -ll
mpatha (3600601609973310067eb1e1ed69ae311) dm-0 DGC,VRAID
size=150G features='1 queue_if_no_path' hwhandler='1 alua' wp=rw
|-+- policy='round-robin 0' prio=130 status=active
| |- 1:0:1:0 sdd 8:48  active ready running
| `- 2:0:1:0 sdj 8:144 active ready running
`-+- policy='round-robin 0' prio=10 status=enabled
  |- 1:0:0:0 sda 8:0   active ready running
  `- 2:0:0:0 sdg 8:96  active ready running
mpathb (360060160997331009fd6e124d69ae311) dm-1 DGC,VRAID
size=800G features='1 queue_if_no_path' hwhandler='1 alua' wp=rw
|-+- policy='round-robin 0' prio=130 status=active
| |- 1:0:0:1 sdb 8:16  active ready running
| `- 2:0:0:1 sdh 8:112 active ready running
`-+- policy='round-robin 0' prio=10 status=enabled
  |- 1:0:1:1 sde 8:64  active ready running
  `- 2:0:1:1 sdk 8:160 active ready running
13. Partition other LUNS using fdisk command as normal, but use logical path /dev/mapper/mpathb etc (partition will be created as /dev/mapper/mpathbp1 instead of /dev/mapper/mpathb1
NOTE: any change to /etc/multipath.conf requires re-create initramfs ( dracut --force -–add multipath) and a reboot, because the boot LUN is on SAN, if boot LUN is local disk, change to /etc/multipath.conf only requires multipathd restart

<출처: http://honglus.blogspot.kr/2014/03/setup-san-boot-for-rhel-6x-using-native.html>

+ Recent posts