Mục tiêu, cần 1 server NFS để lưu trữ dữ liệu (chủ yếu là dữ liệu ảnh từ web upload lên)
Công nghệ lựa chọn là DRBD 2 node, export ra ngoài cho user bằng NFS, Failover giữa primary node và secondary node bằng keepalived
Bước 1: Cấu hình DRBD
– Cài đặt 2 máy Ubuntu 20.04:
10.144.136.41 mefin-ntl-drbd-01 10.144.136.42 mefin-ntl-drbd-02 Mỗi máy 2 ổ cứng: - 1 ổ /dev/sda 40GB cài OS - 1 ổ /dev/sdb 500GB để làm file server. Ổ này add vào thôi, sẽ format các thứ ở bước sau
– Thiết lập hostname cho 2 máy:
# cat /etc/hosts 127.0.0.1 localhost 10.144.136.41 mefin-ntl-drbd-01 10.144.136.42 mefin-ntl-drbd-02 # The following lines are desirable for IPv6 capable hosts ::1 ip6-localhost ip6-loopback fe00::0 ip6-localnet ff00::0 ip6-mcastprefix ff02::1 ip6-allnodes ff02::2 ip6-allrouters
– Format ổ /dev/sdb, làm trên cả 2 máy
root@mefin-ntl-nfs01:~# fdisk /dev/sdb Command (m for help): n Partition type p primary (0 primary, 0 extended, 4 free) e extended (container for logical partitions) Select (default p): p Partition number (1-4, default 1): 1 First sector (2048-1048575999, default 2048): Last sector, +/-sectors or +/-size{K,M,G,T,P} (2048-1048575999, default 1048575999): Created a new partition 1 of type 'Linux' and of size 500 GiB. Command (m for help): t Selected partition 1 Hex code (type L to list all codes): 8e Changed type of partition 'Linux' to 'Linux LVM'. Command (m for help): w The partition table has been altered. Calling ioctl() to re-read partition table.
– Tạo LVM, trên cả 2 máy
pvcreate /dev/sdb1 vgcreate storevolume /dev/sdb1 vgdisplay lvcreate -n storevolumelogic -l 100%FREE storevolume
– Cài đặt DRBD, thao tác trên cả 2 máy
apt-get install -y drbd-utils rm -rf /etc/drbd.d/*
– Tạo resource cho DRBD, thao tác trên cả 2 máy, tạo file cấu hình
cat >/etc/drbd.d/global_common.conf <<EOL resource nfs-fintech { protocol C; # handlers { # pri-on-incon-degr "echo o > /proc/sysrq-trigger ; halt -f"; # pri-lost-after-sb "echo o > /proc/sysrq-trigger ; halt -f"; # local-io-error "echo o > /proc/sysrq-trigger ; halt -f"; # outdate-peer "/usr/lib/heartbeat/drbd-peer-outdater -t 5"; # } # startup { # degr-wfc-timeout 2; # become-primary-on mefin-ntl-nfs01; # } disk { on-io-error detach; no-disk-flushes ; no-disk-barrier; c-plan-ahead 0; c-fill-target 5M; c-min-rate 2400M; c-max-rate 3600M; } net { # max-epoch-size 20000; max-buffers 36k; sndbuf-size 9072k ; rcvbuf-size 9072k; } syncer { rate 4096M; verify-alg sha1; al-extents 257; c-fill-target 24M; c-min-rate 600M; c-max-rate 720M; } on mefin-ntl-drbd-01 { device /dev/drbd0; disk /dev/mapper/storevolume-storevolumelogic; address 10.144.136.41:7788; meta-disk internal; } on mefin-ntl-drbd-02 { device /dev/drbd0; disk /dev/mapper/storevolume-storevolumelogic; address 10.144.136.42:7788; meta-disk internal; } } EOL
– Khởi tạo metadata cho DRBD theo file cấu hình, thao tác trên cả 2 máy
#drbdadm create-md nfs-fintech WARN: You are using the 'drbd-peer-outdater' as fence-peer program. If you use that mechanism the dopd heartbeat plugin program needs to be able to call drbdsetup and drbdmeta with root privileges. You need to fix this with these commands: dpkg-statoverride --add --update root haclient 4750 /lib/drbd/drbdsetup-84 initializing activity log initializing bitmap (16000 KB) to all zero Writing meta data... New drbd meta data block successfully created.
– Bật DRBD trên cả 2 máy
systemctl start drbd
– Thao tác trên node 1, tiến hành chuyển node1 làm node primary
drbdadm primary nfs-fintech --force
Sau bước này 2 máy sẽ tiến hành đồng bộ ban đầu với nhau, tiến hành kiểm tra trạng thái của cluster và quá trình đồng bộ như sau:
root@mefin-ntl-nfs01:~# cat /proc/drbd version: 8.4.11 (api:1/proto:86-101) srcversion: FC3433D849E3B88C1E7B55C 0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r----- ns:92560384 nr:0 dw:0 dr:92562504 al:8 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:431707484 [==>.................] sync'ed: 17.7% (421588/511980)M finish: 2:54:07 speed: 41,316 (38,940) K/sec
Đợi cho quá trình đồng bộ hoàn tất, trạng thái cả 2 node là UpToDate/UpToDate
root@mefin-ntl-drbd-02:~# cat /proc/drbd version: 8.4.11 (api:1/proto:86-101) srcversion: FC3433D849E3B88C1E7B55C 0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r----- ns:277046300 nr:7370548 dw:284415448 dr:131389 al:72035 bm:0 lo:4 pe:4 ua:0 ap:4 ep:1 wo:d oos:0 root@mefin-ntl-drbd-02:~#
Tiến hành format ổ drbd và mount vào máy chủ, việc này thực hiện trên node primary
mkfs.ext4 /dev/drbd0 mount /dev/drbd0 /srv
Mount thành công là OK, xong phần dựng DRBD, tiền hành umount trước khi thực hiện bước tiếp theo.
Tiến hành cài đặt nfs server và keepalived cho cả 2 máy
apt install -y nfs-server keepalived systemctl enable keepalived
Cấu hình cho nfs mount vào /srv
Tuy nhiên không để cho nfs-server khởi động cùng máy chủ. Để keepalived làm việc đó.
File export của NFS trên cả 2 máy
root@mefin-ntl-drbd-01:~# cat /etc/exports # /etc/exports: the access control list for filesystems which may be exported # to NFS clients. See exports(5). # # Example for NFSv2 and NFSv3: # /srv/homes hostname1(rw,sync,no_subtree_check) hostname2(ro,sync,no_subtree_check) # # Example for NFSv4: # /srv/nfs4 gss/krb5i(rw,sync,fsid=0,crossmnt,no_subtree_check) # /srv/nfs4/homes gss/krb5i(rw,sync,no_subtree_check) /srv *(rw,sync)
Cấu hình cho keepalived check node primary và tự mount , tự bật NFS
Thực hiện trên node primary
cat >/etc/keepalived/keepalived.conf <<EOL global_defs { # Keepalived process identifier router_id nfsserver enable_script_security script_user root } # Script to check whether Nginx is running or not vrrp_script check_nfs { script "bash /etc/keepalived/trackdrbd.sh" interval 2 weight 50 } # Virtual interface - The priority specifies the order in which the assigned interface to take over in a failover vrrp_instance VI_01 { state MASTER interface ens160 virtual_router_id 152 priority 110 virtual_ipaddress { 10.144.136.40/26 } track_script { check_nfs } notify_master /etc/keepalived/notify_master.sh notify_backup /etc/keepalived/notify_backup.sh notify_stop /etc/keepalived/notify_stop.sh authentication { auth_type PASS auth_pass secret } } EOL
File cấu hình keepalive cho Secondary
global_defs { # Keepalived process identifier router_id nfsserver enable_script_security script_user root } # Script to check whether Nginx is running or not vrrp_script check_nfs { script "bash /etc/keepalived/trackdrbd.sh" interval 2 weight 50 } # Virtual interface - The priority specifies the order in which the assigned interface to take over in a failover vrrp_instance VI_01 { state BACKUP interface ens160 virtual_router_id 152 priority 100 virtual_ipaddress { 10.144.136.40/26 } track_script { check_nfs } notify_master /etc/keepalived/notify_master.sh notify_backup /etc/keepalived/notify_backup.sh notify_stop /etc/keepalived/notify_stop.sh authentication { auth_type PASS auth_pass secret } }
File script cho keepalived
root@mefin-ntl-drbd-01:~# cat /etc/keepalived/trackdrbd.sh #!/bin/bash PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin MOUNTPONT=/srv VOLUMENAME=nfs-fintech if [ -e /proc/drbd ] then # check_drbd=$(drbdadm status) CURRENT_ROLE=$(cat /proc/drbd | grep -oE "ro:[A-Za-z]+/[A-Za-z]+") if [ $CURRENT_ROLE == "ro:Secondary/Secondary" ] then #Promote to Primary drbdadm primary $VOLUMENAME mount /dev/drbd0 $MOUNTPONT && systemctl start nfs-server # if grep -qs "$MOUNTPONT " /proc/mounts # then # echo "MOUNTPONT exist" # else # echo "MOUNTPONT not exist" # fi elif [ $CURRENT_ROLE == "ro:Secondary/Primary" ] then echo "second node, do nothing" exit 97 elif [[ "$CURRENT_ROLE" == *"ro:Primary/"* ]] then if grep -qs "$MOUNTPONT " /proc/mounts then echo "MOUNTPONT exist" cat /srv/system/flag_nodelete exit 0 else echo "MOUNTPONT not exist, doing now" mount /dev/drbd0 $MOUNTPONT && systemctl start nfs-server && echo "Mount OK" || echo "Mount Fail" && exit 97 fi elif [ $CURRENT_ROLE == "ro:Secondary/Primary" ] then echo "second node, do nothing" exit 97 elif [ $CURRENT_ROLE == "ro:Secondary/Unknown" ] then echo "Primary not found, promote to pri and mount system" drbdadm primary $VOLUMENAME mount /dev/drbd0 $MOUNTPONT systemctl start nfs-server # xu ly cac truong hop ngoai le khac else echo $CURRENT_ROLE exit 98 fi else echo "DRBD not running" exit 99 fi
Các file notify còn lại là file rỗng, không có giá trị sử dụng. các bạn có thể comment cấu hình trong keepalived lại