카테고리 보관물: infra

The end of Kubernetes version 1.23 – Ubuntu kubernetes apt install error

2024년 3월 초, docker가 익숙해서 끝까지 버티고 있던 kubernetes v1.23.x 개발 환경 설치에 돌연 문제가 생겼다. Ubuntu에서 kubeadm, kubelet, kubectl 등을 apt로 설치할 수 없게 된 것이다. 원인과 해결 방법에 대해 알아보자.

Kubernetes apt install 에러 현상과 원인

K8s 설치 시 어떤 현상이 발생하는가?

2024년 3월 초부터 ubuntu에 apt install 명령어를 통해 kubeadm, kubelet, kubectl이 설치되지 않는다. 기존 사용하던 개발 환경은 다음과 같다.

OS: jharoian3/ubuntu-22.04-arm64
Kubernetes: 1.23.6-00
Docker: 5:24.0.6-1~ubuntu.22.04~jammy

설치를 위한 명령어는 다음과 같이 사용하고 있었다.

curl -fsSL https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo gpg --dearmor -o /etc/apt/keyrings/kubernetes-archive-keyring.gpg
echo "deb [signed-by=/etc/apt/keyrings/kubernetes-archive-keyring.gpg] https://apt.kubernetes.io/ kubernetes-xenial main" | sudo tee /etc/apt/sources.list.d/kubernetes.list
sudo apt-get update
sudo apt -y install kubelet="$KUBERNETES_VERSION" kubectl="$KUBERNETES_VERSION" kubeadm="$KUBERNETES_VERSION"

위 명령어를 통해 kubernetes 설치를 진행하면, 다음과 같은 에러 메시지를 확인할 수 있다.

master: deb [signed-by=/etc/apt/keyrings/kubernetes-archive-keyring.gpg] https://apt.kubernetes.io/ kubernetes-xenial main
master: Hit:1 https://download.docker.com/linux/ubuntu jammy InRelease
master: Hit:3 http://ports.ubuntu.com/ubuntu-ports jammy InRelease
master: Ign:2 https://packages.cloud.google.com/apt kubernetes-xenial InRelease
master: Hit:4 http://ports.ubuntu.com/ubuntu-ports jammy-updates InRelease
master: Err:5 https://packages.cloud.google.com/apt kubernetes-xenial Release
master:   404  Not Found [IP: 142.250.76.142 443]
master: Hit:6 http://ports.ubuntu.com/ubuntu-ports jammy-backports InRelease
master: Get:7 http://ports.ubuntu.com/ubuntu-ports jammy-security InRelease [110 kB]
master: Reading package lists...
master: E: The repository 'https://apt.kubernetes.io kubernetes-xenial Release' does not have a Release file.
master: 
master: WARNING: apt does not have a stable CLI interface. Use with caution in scripts.
master: 
master: Reading package lists...
master: Building dependency tree...
master: Reading state information...
master: E: Unable to locate package kubelet
master: E: Unable to locate package kubectl
master: E: Unable to locate package kubeadm

원인은 package repository에 있다!

위의 에러 메시지를 살펴보면, kubernetes 관련 package 목록을 가져오기 위해 package repository에 접속을 하는데, 404 에러가 발생하고 있음을 알 수 있다. 최근까지 잘 되던 것이 갑자기 되지 않으니까 당황스럽다. 원인은 외부에 있음을 직감하고, kubernetes 공식 문서들을 샅샅이 뒤져보았다.

아니나 다를까, package repository가 대체된다는 안내사항이 있었다. 해당 글에서는 다음과 같이 안내하고 있다.

On behalf of Kubernetes SIG Release, I am very excited to introduce the Kubernetes community-owned software repositories for Debian and RPM packages: pkgs.k8s.io! The new package repositories are replacement for the Google-hosted package repositories (apt.kubernetes.io and yum.kubernetes.io) that we’ve been using since Kubernetes v1.5.

ℹ️ Update (January 12, 2024): the legacy Google-hosted repositories are going away in January 2024. Check out the deprecation announcement for more details about this change.

기존 사용하던 package repository가 2024년 1월부터 아예 사라질 것이라고 되어 있는데, 3월까지 잘 사용한 것도 기적이었던 것이다. 평소 부지런하게 follow up하지 않았던 스스로를 반성하게 된다.

Package repository 관련 문제 해결 방법

Package repository deprecation에 대응하기

안내사항에 따르면, 다음과 같이 package repository를 변경한 후 apt install을 진행하면 된다.

curl -fsSL https://pkgs.k8s.io/core:/stable:/v1.23/deb/Release.key | sudo gpg --dearmor -o /etc/apt/keyrings/kubernetes-apt-keyring.gpg
echo "deb [signed-by=/etc/apt/keyrings/kubernetes-apt-keyring.gpg] https://pkgs.k8s.io/core:/stable:/v1.23/deb/ /" | sudo tee /etc/apt/sources.list.d/kubernetes.list
sudo apt-get update

그런데, 이렇게 변경 후 테스트해도 여전히 다음과 같은 에러가 발생한다.

master: Reading package lists...
master: E: Failed to fetch https://pkgs.k8s.io/core:/stable:/v1.23/deb/InRelease  403  Forbidden [IP: 54.192.175.103 443]
master: E: The repository 'https://pkgs.k8s.io/core:/stable:/v1.23/deb  InRelease' is not signed.

한 걸음 나아가긴 했다. 404 Not Found 에러 대신 403 Forbidden 에러가 발생하는 것으로 보아, 적어도 새로운 package repository는 서비스를 하고 있긴 하다는 것을 확인할 수 있다. 그렇다면, 왜 이런 현상이 발생하는 것일까? 이 문제에 대한 원인도 앞서 언급한 안내 글에서 찾을 수 있었다.

The new Kubernetes package repositories contain packages beginning with those Kubernetes versions that were still under support when the community took over the package builds. This means that the new package repositories have Linux packages for all Kubernetes releases starting with v1.24.0.

새로운 package repository는 v1.24.0 이상의 kubernetes만 제공한다는 것이다. 결국, kubernetes의 버전을 올려야 한다.

Docker를 버린 kubernetes v1.24로의 여정

Kubernetes v1.23.x와 v1.24.x 사이에는 큰 차이점이 존재한다. Kubernetes v1.24.0부터는 docker를 버렸다는 것이다. 공식 문서의 내용을 간단히 요약하면 다음과 같다.

  • 1.24 버전 이전에는 docker라는 specific한 CRI를 사용하고 있었다.
  • Kubernetes에서 docker 외에도 다양한 CRI를 지원하기 위해, CRI standard라는 것을 만들었다.
  • Docker는 CRI standard를 따르지 않고 있다.
  • Kubernetes는 docker 지원을 위해 dockershim이라는 코드를 만들어서 제공했다.
  • Kubernetes 개발 참여자들이 docker라는 특수 CRI를 위해 별도로 시간을 할애하는 것이 부담스럽다.
  • Kubernetes v1.24부터 dockershim 지원 안하기로 했다.

실제로, kubernetes v1.24 버전을 설치할 때 docker를 사용하려고 하면, 다음과 같은 에러를 만날 수 있다.

master:     [WARNING SystemVerification]: missing optional cgroups: blkio
master: error execution phase preflight: [preflight] Some fatal errors occurred:
master:     [ERROR CRI]: container runtime is not running: output: time="2024-03-05T00:42:52-08:00" level=fatal msg="validate service connection: CRI v1 runtime API is not implemented for endpoint \"unix:///var/run/containerd/containerd.sock\": rpc error: code = Unimplemented desc = unknown service runtime.v1.RuntimeService"
master: , error: exit status 1
master: [preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`
master: To see the stack trace of this error execute with --v=5 or higher
master: failed to load admin kubeconfig: open /root/.kube/config: no such file or directory
master: To see the stack trace of this error execute with --v=5 or higher

눈물과 함께 kubernetes v1.23과 docker와 작별할 시간이다. 앞서 살펴본 package repository 설정 부분에서 버전을 지정해주는 문자열을 변경하자.

curl -fsSL https://pkgs.k8s.io/core:/stable:/v1.24/deb/Release.key | sudo gpg --dearmor -o /etc/apt/keyrings/kubernetes-apt-keyring.gpg
echo "deb [signed-by=/etc/apt/keyrings/kubernetes-apt-keyring.gpg] https://pkgs.k8s.io/core:/stable:/v1.24/deb/ /" | sudo tee /etc/apt/sources.list.d/kubernetes.list
sudo apt-get update

이후 apt-cache policy kubeadm 명령어를 통해 설치 가능한 버전을 조회해보고 apt install을 통해 설치를 진행하면 된다. 이때 주의할 점은, docker가 아니라 containerd를 사용할 것이기 때문에 설치하려는 kubernetes 버전과 호환되는 containerd 버전을 알아보고 미리 설치해두어야 한다는 것이다. Containerd와 kubernetes 버전 호환 관계는 이 문서를 확인하면 된다.

최종적으로 정상화한 개발 환경은 다음과 같다.

OS: jharoian3/ubuntu-22.04-arm64
Kubernetes: 1.24.17-1.1
Containerd: 1.7.0

간단하게 요약하면?

요약 정리

  • 현상: ubuntu에 apt install로 kubernetes를 설치할 때, package list를 불러오는 과정에서 에러 발생
  • 원인: 2024년 초부터 버려진 legacy package repository를 참조하고 있을 가능성 있음
  • 해결책: 새로운 package repository로 변경하면 됨

주의사항

  • 새로운 package repository는 kubernetes v1.24.0 이상만 제공
  • Docker를 쓰고 있었다면, containerd같은 다른 CRI로 변경 필요

ALFA – AWUS036ACS driver install of Kali Linux (v2024.2)

KALI LINUX에서 ALFA – AWUS036ACS 드라이버 설치하는 방법

현재 Kali Linux 최신 버전 2024.2를 사용 중입니다.

  1. 먼저, 클래식 업데이트와 업그레이드부터 시작.
sudo apt update && sudo apt upgrade -y

2. 헤더를 로드하고 다양한 새로운 설정을 구성할 수 있도록 재부팅해 보겠습니다.

reboot

3. 헤더와 드라이버에 필요한 패키지를 설치.

sudo apt install bc mokutil build-essential libelf-dev linux-headers-[uname -r]

4. realtek-rtl88xxau-dkms

sudo apt install realtek-rtl88xxau-dkms

5. 이제 github aircrack-ng에서 필요한 일부 파일을 추출해야 합니다.

(메인 디렉토리에 src와 같은 디렉토리를 생성하여 추가하는 것이 좋습니다.)

mkdir src && cd src

git clone -b v5.6.4.2 https://github.com/aircrack-ng/rtl8812au.git

6. rtl8812au 디렉토리로 cd.

cd rtl*
make
sudo make install

7. 다른 필요한 github 파일을 복제해서 설치.

git clone https://github.com/morrownr/8821au-20210708.git
cd 8821*
sudo ./install-driver.sh

재부팅하면 끝납니다 🙂

/lib/modules/[uname -r]/ -name "88XXau.ko" 를 확인할 수 있습니다.

가상 머신을 사용하는 경우 다음 작업을 잊지 마세요.

(virtualbox의 경우)

  1. VirtualBox 확장팩 설치됨
  2. VirtualBox USB 설정 USB 무선 동글 추가
  3. VirtualBox 네트워크 설정: 브리지 어댑터 > RTL88.. > 모두 허용

How to Install macOS Sonoma 14 on VMware Workstation 17

이 문서에서는 Windows 운영 체제에서 VMware Workstation 17 Pro를 사용하여 새 가상 머신에 macOS Sonoma 14를 설치하고 구성하는 방법을 살펴봅니다.

VMware 워크스테이션에 macOS Sonoma 14를 설치하는 방법

iMac, MacBook 또는 MacBook Pro 컴퓨터 사용자는 Apple Store에서 Sonoma 14 업데이트를 다운로드하고 시스템을 쉽게 업데이트할 수 있습니다.

Mac 컴퓨터가 없다고 가정해 보겠습니다. 이 경우 VMware Workstation Pro 가상화 프로그램을 사용하여 Windows 10 또는 Windows 11이 설치된 호스트 컴퓨터에 macOS 14를 설치 하고 Apple의 새로운 시스템을 경험할 수 있습니다.

일반적으로 프로그램이 Apple OS 시스템을 지원하지 않기 때문에 VMware Workstation에 Apple 운영 체제를 설치할 수 없습니다. 그러나 VMware Unlocker를 사용하여 이 지원을 활성화하고 macOS를 잠금 해제할 수 있습니다.

또한 Windows 및 vSphere ESXi 에서 Unlocker 소프트웨어를 사용하여 Apple Mac OS X의 잠금을 해제할 수 있습니다 .

macOS Sonoma용 새 가상 머신을 생성하는 방법

Windows 호스트 컴퓨터에 VMware를 설치한 후 앞서 언급한 대로 Unlocker 도구를 사용하여 게스트 macOS 운영 체제를 설치하고 VM 설정을 올바르게 지정해야 합니다.

1 단계

VMware Workstation 17 Pro를 연 후 메인 화면에서 가상 머신 생성 옵션을 클릭하여 마법사를 엽니다. 새 가상 머신 마법사를 연 후 사용자 지정(고급)을 선택하여 가상 머신 설정을 더 잘 구성하고 다음을 클릭하세요.

사용자 정의 가상 머신 생성

2 단계

가상 머신 하드웨어 호환성 선택 창에서 컴퓨터에 설치된 최신 버전의 VMware Pro를 선택합니다. 이전 시스템 버전을 설치하려고 했는데 오류가 발생했다고 가정해 보겠습니다. 이 경우 호환성 섹션에서 Workstation 버전을 다운그레이드할 수 있습니다.

하드웨어 버전 선택

3단계

게스트 운영 체제 설치 창에서 시스템 설치에 사용할 미디어 유형을 선택할 수 있습니다. 호스트의 물리적 DVD 드라이브를 사용하여 설치하려면 설치 프로그램 디스크 섹션에서 설치 미디어를 선택하거나 설치 프로그램 디스크 이미지 섹션에서 컴퓨터에 다운로드한 ISO 이미지를 가상 머신에 추가 하세요 .

이 단계에서 가상 머신에 ISO 파일을 추가하면 추가된 이미지를 기반으로 macOS 가상 머신의 유형과 설정이 자동으로 결정됩니다. 이 프로세스는 설치에 적합하지 않을 수 있으므로 나중에 운영 체제를 설치하겠습니다를 선택하고 계속해서 수동으로 설정을 구성합니다.

나중에 운영 체제를 설치하겠습니다.

4단계

게스트 운영 체제 선택 창에서 Microsoft Windows, Linux, ESX 또는 기타 플랫폼의 운영 체제를 선택할 수 있습니다. 그래도 여기에는 Apple Mac OS X가 표시되지 않습니다.

가상 머신에 macOS를 설치하려고 하면 Apple Mac OS X 시스템에 대한 지원이 표시되지 않습니다. 따라서 Unlocker를 사용하여 macOS 지원을 활성화해야 합니다.

이 창에서 취소 버튼을 클릭하면 가상 머신 생성 마법사가 닫히고 VMware Workstation 프로그램이 완전히 닫힙니다.

게스트 운영 체제 선택

5단계

VMware Unlocker를 컴퓨터에 다운로드한 다음 zip 파일을 폴더에 추출하고 폴더에 있는 win-install.cmd 파일을 관리자로 실행합니다.

VMware 잠금 해제 설치

6단계

Unlocker 도구를 실행하면 VMware 프로그램의 일부 파일이 자동으로 구성되고 백업됩니다. 또한 VMware Tools(Darwin.iso)가 다운로드되기 시작하여 호스트에서 Apple 운영 체제를 보다 효율적으로 사용할 수 있습니다.

참고 : VMware Tools 파일을 다운로드할 수 없는 경우 이 문서를 방문하여 관련 파일을 컴퓨터에 다운로드하십시오.

VMware 도구 다운로드

7단계

macOS를 잠금 해제하면 이번에는 게스트 운영 체제 선택 창에서 Apple Mac OS X 지원이 활성화된 것을 확인할 수 있습니다.

Apple Mac OS X 플랫폼을 선택한 후 버전 섹션에서 macOS 14를 선택하고 다음을 클릭합니다.

Apple Mac OS X 게스트 운영 체제 선택

8단계

가상 머신에 설치할 시스템 이름을 입력합니다. 설치 위치를 변경한다고 가정해 보겠습니다. 이 경우 찾아보기 버튼을 통해 외부 디스크의 사이트를 지정할 수 있습니다.

호스트 디스크 유형이 SSD 또는 NVMe라고 가정합니다. 이 경우 게스트 머신의 성능을 위해 설치 위치를 변경하지 않고 계속할 수 있습니다.

게스트 시스템 이름 입력

9단계

프로세서 구성 창에서 호스트 컴퓨터의 하드웨어 성능에 따라 가상 프로세서 코어 수를 늘릴 수 있습니다. 프로세서 수를 늘리면 가상 시스템이 안정적으로 작동하지 않을 수 있으므로 macOS 게스트 운영 체제에 가장 적합한 값을 찾아야 합니다.

가상 프로세서 코어 수 늘리기

10단계

마찬가지로 호스트 컴퓨터의 RAM 용량에 따라 macOS VM에 적합한 메모리 값을 구성합니다. 시스템에 16GB RAM이 있는 경우 VM에 8GB의 메모리를 할당할 수 있습니다.

RAM 크기를 VM으로 설정

11단계

NAT를 사용하여 네트워크 유형 설정에서 가상 컴퓨터를 로컬 네트워크에 연결합니다. VM에서 인터넷 연결이 필요하지 않은 경우 호스트 전용을 선택 하거나 네트워크 어댑터를 사용하지 않도록 선택할 수 있습니다.

NAT 어댑터 유형 선택

12단계

I/O 컨트롤러 유형 창에서 기본적으로 선택되고 권장되는 LSI Logic을 진행합니다.

LSI 로직 I/O 컨트롤러 유형 선택

13단계

디스크 유형 창에서 가상 PC의 디스크를 IDE , SCSI , SATA 또는 NVMe로 선택할 수 있지만 설치할 시스템이 지원하는지 확인해야 합니다.

macOS Sonoma는 최신 운영 체제이고 새로운 기술을 지원하므로 NVMe 디스크 유형을 선택하면 가상 머신의 성능을 크게 향상시킬 수 있습니다.

NVMe 가상 디스크 유형 선택

14단계

디스크 선택 창에서 가상 컴퓨터를 위한 새 가상 HDD를 생성하거나, 기존 디스크 파일을 추가하거나, 물리적 디스크를 VM에 직접 탑재할 수 있습니다.

새로 macOS 설치를 위한 새 가상 디스크 생성을 선택하고 다음을 클릭합니다.

새 가상 디스크 생성

15단계

디스크 용량 지정 창에서 Sonoma의 가상 디스크 크기를 100GB로 수정하고 가상 디스크를 호스트의 단일 파일로 백업하도록 선택합니다.

컴퓨터에서 이전 기계 디스크 유형을 사용하는 경우 지금 모든 디스크 공간 할당 옵션을 사용하여 호스트 디스크에서 VM에 대해 100GB의 디스크 공간을 할당할 수 있습니다. 이 옵션을 선택하지 않고 계속 진행하면 가상 머신에 디스크 공간이 필요한 경우 호스트 디스크에서 필요한 길이가 자동으로 할당됩니다.

단일 파일 형식으로 가상 디스크 백업 및 크기 구성

16단계

가상 디스크 파일을 가상 머신 구성 파일이 아닌 다른 위치에 백업한다고 가정해 보겠습니다. 이 경우 이 창에서 해당 위치를 선택할 수 있습니다. 컴퓨터에 두 개 이상의 가상 머신을 설치하는 경우 디스크 파일의 위치를 ​​변경하지 마십시오. 서로 다른 영역에 있는 가상 디스크 파일로 인해 혼동될 수 있습니다.

가상 HDD의 위치

17단계

시스템이 가상 컴퓨터를 생성할 준비가 되면 아래와 같은 요약 창이 나타납니다. 요약 창에서 VM에 대한 모든 설정을 확인한 후 하드웨어 사용자 정의 버튼을 클릭합니다.

가상 하드웨어 사용자 정의

18단계

macOS 가상 시스템의 프로세서 설정을 보고 가상화 엔진 섹션에서 “Intel VT-x 또는 AMD-V/RVI 가상화” 옵션을 활성화합니다.

가상화 기능 활성화

19단계

생성한 게스트 시스템에 macOS Sonoma ISO 파일을 추가하려면 CD/DVD(SATA) 장치의 하드웨어 설정 창에서 ISO 이미지 파일 사용 옵션을 선택하고 찾아보기를 클릭하세요.

컴퓨터에 다운로드한 macOS 14 ISO 파일을 선택 하고 열기를 클릭합니다.

가상 머신에 macOS Sonoma ISO 파일 추가

20단계

macOS 이미지 파일을 게스트 컴퓨터에 추가한 후 디스플레이 설정에서 “3D 그래픽 가속화” 기능을 끄고 창을 닫습니다.

3D 그래픽 가속 비활성화

21단계

게스트 가상 PC의 요약 창을 닫고 계속하세요.

가상 PC 설정 닫기

22단계

Sonoma 가상 머신을 실행하고 설치하기 전에 VMX 파일에 코드를 추가해야 합니다. Workstation Pro의 라이브러리 섹션에서 생성한 VM을 마우스 오른쪽 버튼으로 클릭한 다음 VM 디렉터리 열기를 클릭합니다.

macOS.vmx 파일을 메모장으로 열고 다음 코드를 추가한 후 파일을 저장합니다.

smbios.reflectHost = "TRUE"
hw.model = "MacBookPro14,3"
board-id = "Mac-551B86E5744E2388"
smc.version = "0"

AMD 프로세서 호스트가 있는 경우 VMX 파일에 하단 코드를 추가하고 저장합니다.

smc.version = "0"
cpuid.0.eax = "0000:0000:0000:0000:0000:0000:0000:1011"
cpuid.0.ebx = "0111:0101:0110:1110:0110:0101:0100:0111"
cpuid.0.ecx = "0110:1100:0110:0101:0111:0100:0110:1110"
cpuid.0.edx = "0100:1001:0110:0101:0110:1110:0110:1001"
cpuid.1.eax = "0000:0000:0000:0001:0000:0110:0111:0001"
cpuid.1.ebx = "0000:0010:0000:0001:0000:1000:0000:0000"
cpuid.1.ecx = "1000:0010:1001:1000:0010:0010:0000:0011"
cpuid.1.edx = "0000:0111:1000:1011:1111:1011:1111:1111"
smbios.reflectHost = "TRUE"
hw.model = "MacBookPro14,3"
board-id = "Mac-551B86E5744E2388"

macOS VM에서 VMX 파일로 필요한 코드 입력

23단계

macOS.vmx 파일에 필요한 코드를 추가하고 파일을 저장한 후 가상 컴퓨터를 실행합니다.

가상 컴퓨터 실행

VMware를 사용하여 macOS Sonoma를 설치하는 방법

이 단계까지 VMware를 사용하여 macOS용 새 가상 머신을 생성한 후 시스템 설정을 시작할 수 있습니다.

1 단계

macOS 가상 컴퓨터를 실행한 후 Apple 로고가 나타나면 시스템이 부팅될 때까지 기다립니다.

애플 로고

2 단계

macOS 운영 체제를 사용할 시스템 표시 언어를 선택하고 계속하세요.

시스템 표시 언어 선택

3단계

복구 화면이 나타나면 설치하기 전에 가상 디스크를 포맷해야 하므로 디스크 유틸리티를 엽니다.

디스크 유틸리티

4단계

디스크 유틸리티에서 VMware 가상 NVMe 디스크 미디어를 선택하고 지우기 버튼을 클릭합니다. 선택한 디스크를 포맷하려면 열린 창의 이름 필드에 디스크 이름을 입력하고 APFS 형식을 선택한 다음 지우기 버튼을 다시 클릭하고 프로세스가 완료될 때까지 기다립니다.

  • 이름: macOS
  • 형식: APFS
  • 구성표: GUID 파티션 맵

VMware 가상 NVMe 디스크 미디어 포맷

5단계

가상 디스크를 포맷한 후 macOS Sonoma 설치를 선택하고 계속을 클릭하여 시스템을 설치합니다.

macOS 소노마 설치

6단계

계속을 다시 클릭하여 macOS 설치를 시작합니다.

macOS 설정 시작

7단계

macOS 소프트웨어 설치를 계속하려면 라이센스 계약에 동의하세요.

라이센스 계약 수락

8단계

포맷한 가상 디스크를 선택하고 계속을 클릭합니다.

설치할 디스크 선택

9단계

설정 마법사가 시스템 파일을 macOS 디스크에 복사하는 동안 기다립니다. 진행률 표시줄에는 대략 소요 시간이 표시되지만 호스트 컴퓨터의 성능에 따라 시간이 덜 걸릴 수도 있습니다.

약 18분 남음

10단계

시스템 파일을 복사한 후 게스트 가상 시스템이 다시 시작되고 Apple 로고에서 작동됩니다.

약 28분 남음

11단계

필요한 파일을 복사한 후 국가를 선택하고 국가 또는 지역 선택 화면이 나타나면 계속을 클릭하세요.

당신의 나라를 선택하시오

12단계

쓰기 및 음성 언어 화면에서는 시스템에서 사용하려는 시스템 언어, 키보드 레이아웃 및 시스템 로봇 음성을 변경할 수 있습니다.

말하기 및 쓰기 언어를 선택하세요

13단계

접근성 설정에서 개인적인 필요에 따라 시스템을 맞춤 설정할 수 있습니다. 예를 들어 VoiceOver 화면 읽기 프로그램을 사용하여 파일, 웹 페이지의 텍스트를 말하거나 화면에 나타나는 텍스트를 말할 수 있습니다.

접근성 설정

14단계

Apple은 데이터 및 개인 정보 보호 화면에서 사용자의 최소한의 개인 정보를 사용하고 인권을 존중한다는 점을 분명히 명시합니다. 귀하의 데이터를 수집하는 목적은 Apple 서비스를 개선하고 사용자 경험을 향상시키는 것입니다.

데이터 및 개인 정보 보호 설정

15단계

다른 Mac 또는 Windows 컴퓨터에서 게스트 컴퓨터로 파일과 문서를 전송할 수 있습니다. 나중에 데이터를 전송하여 처음부터 시스템 경험을 얻을 수 있습니다.

마이그레이션 도우미

16단계

Apple ID로 로그인 화면에서 로그인하여 iCloud, App Store 및 기타 Apple 서비스를 사용할 수 있습니다. 따라서 Apple 계정이 없는 경우 이 화면에서 새 Apple 계정을 시작할 수 있습니다.

Apple ID 로그인 건너뛰기

17단계

이용 약관 화면에서 macOS 소프트웨어 라이선스 계약을 읽은 후 동의하세요.

이용약관 수락

18단계

가상 시스템에 대한 새 컴퓨터 계정을 만들고 프로필 사진을 선택하세요.

컴퓨터 계정 만들기

19단계

Apple 지도 및 기타 서비스에 대한 개인화된 사용자 경험을 향상시키기 위해 데이터 사용을 허용하거나 허용하지 않을 수 있습니다. 이 결정은 전적으로 개인적인 것이지만, 귀하의 데이터 및 위치 정보를 Apple과 공유하여 macOS를 더욱 개선하는 데 도움을 줄 수 있습니다.

위치 서비스

20단계

시간대 화면에서 귀하가 거주하거나 가장 가까운 지역을 선택하고 계속하십시오.

시간대 선택

21단계

마찬가지로, 사용하는 애플리케이션에서 발생하는 충돌 및 사용 데이터를 개발자와 공유함으로써 개발자가 사용자를 위한 애플리케이션을 더 많이 개발하도록 도울 수 있습니다.

Apple에 분석 데이터 제출

22단계

스크린 타임을 통해 부모는 모든 연령대의 자녀에 대해 시스템을 더 효과적으로 제어할 수 있습니다. 또한 앱과 웹 페이지에 소요된 시간을 검토할 수도 있습니다. 나중에 이러한 설정을 자세히 구성하려면 나중에 설정을 클릭하고 계속하세요.

macOS 화면 시간 설정

23단계

디자인 선택 화면에서 Sonoma 시스템에 사용하고 싶은 테마를 선택할 수 있습니다. Apple은 사용자에게 Light, Dark 및 Auto의 세 가지 테마 스킨을 제공했습니다.

자동 보기를 사용하기로 선택한 경우, 거주 국가의 시간대에 따라 시스템 보기가 자동으로 밝거나 어두워집니다.

당신의 모습을 선택하세요

24단계

시스템 설정을 조정하고 Apple 로고를 클릭한 후 이 Mac 정보를 통해 macOS 버전을 확인할 수 있습니다.

macOS 버전 확인

macOS에 VMware 도구를 설치하는 방법

VMware와 함께 macOS Sonoma를 설치한 후 전체 화면 해상도와 더 높은 성능으로 게스트 가상 시스템을 사용하려면 VM 도구를 설치해야 합니다.

macOS 게스트 컴퓨터의 경우 어디에서나 VM Tools ISO 파일을 다운로드할 필요가 없습니다. Unlocker 도구를 사용하면 VM 도구(Darwin.iso) 파일이 컴퓨터에 다운로드됩니다.

1 단계

macOS 가상 PC의 도구 메뉴에서 VM / 이동식 장치 / CD/DVD(SATA)로 이동하여 설정을 클릭합니다.

VMware 도구 설치

2 단계

CD/DVD 장치의 상태를 연결됨으로 변경한 후 Unlocker/Tools 폴더에 있는 Darwin.iso 파일을 VM에 추가합니다.

가상 머신에 Darwin.iso 파일 추가

3단계

VM에 ISO 이미지를 탑재한 후 VMware 도구 설치를 두 번 클릭하고 설치를 시작합니다.

VMware Tools 설치 시작

4단계

VMware Tools 설치 관리자 창에서 계속을 클릭하여 설치를 계속합니다.

VMware 도구 설치 프로그램

5단계

설치 대상 위치를 선택해야 하므로 ‘이 컴퓨터의 모든 사용자에 대해 설치’를 선택하고 다시 계속을 클릭합니다.

대상 위치 선택

6단계

VMware Tools는 가상 디스크에서 7.6MB의 디스크 공간을 사용합니다. 설치 위치를 변경하지 마십시오. 표준 설치를 위해서는 설치 버튼을 직접 클릭하세요.

설치 시작

7단계

설치가 시작되면 사용자 계정 비밀번호를 입력하여 마법사를 인증하고 소프트웨어 설치 버튼을 클릭합니다.

macOS 사용자 계정 비밀번호 입력

8단계

이번에 시스템 확장 차단 경고가 표시되면 보안 기본 설정 열기를 클릭하세요.

보안 환경설정 열기

9단계

“개발자 VMware, Inc.의 시스템 소프트웨어가 로드되지 않았습니다.” 경고 옆에 있는 허용 버튼을 클릭합니다.

VMware Inc가 보안 및 개인 정보 설정을 수정하도록 잠금 해제하고 허용

10단계

새 시스템 구성 요소를 적용하려면 시스템을 다시 시작해야 함을 알리는 창에서 지금은 안 함을 클릭합니다.

지금 컴퓨터를 다시 시작하지 않음

11단계

macOS에서 VM Tools 설치를 완료한 후 시스템을 다시 시작합니다.

가상 시스템 다시 시작

12단계

VMware에서 게스트 시스템을 전체 화면 해상도로 사용할 수 있는지, 그래픽 메모리가 3MB가 아닌 128MB인지 확인하세요.

그래픽 메모리 및 전체 화면 해상도 확인

13단계

게스트 컴퓨터를 전체 화면 해상도로 사용하려면 호스트 화면에 따라 워크스테이션 도구 메뉴에서 보기 / 전체 화면을 클릭하세요.

전체 화면 해상도 제어

14단계

Windows 10 호스트 시스템에서 macOS 게스트 시스템으로 파일을 끌어서 놓아 파일을 전송하려고 하면 VMware-tools-daemon 오류가 발생합니다. 이 오류를 해결하려면 시스템 환경설정 열기를 클릭하세요.

호스트와 가상 머신 간 파일 전송 드래그 앤 드롭

15단계

보안 및 개인 정보 보호 설정을 변경하려면 시스템을 다시 잠금 해제하고 접근성 섹션에서 VMware-tools-daemon 구성 요소를 활성화합니다.

VMware-Tools-Deamon 허용

16단계

VMware-tools-daemon 구성 요소를 허용한 후 다시 호스트에서 VM으로 파일을 전송하려고 하면 아래 이미지와 같이 작업이 성공한 것을 확인할 수 있습니다.

드래그 앤 드롭으로 파일 전송 성공

인터넷 연결을 확인하는 방법

게스트의 macOS 컴퓨터에서 모든 설정을 지정한 후 인터넷 연결을 테스트하는 것이 도움이 됩니다. 그렇지 않으면 시스템이나 사용하려는 응용 프로그램에 새 업데이트를 설치할 수 없습니다.

1 단계

터미널을 실행하려면 Windows 키 + Space를 함께 누르고 열린 검색 창에 터미널을 입력한 후 실행하세요.

macOS에서 ping을 수행하려면 터미널에서 ping -c 2 www.google.com 명령을 실행하세요. ping 출력에 TTL=128 값이 표시되면 인터넷에 액세스할 수 있습니다.

터미널을 통해 Google 서버에 핑(Ping)

2 단계

핑이 성공하면 Mac 가상 컴퓨터에서 Safari 웹 브라우저를 열고 Google 홈페이지를 방문하여 연결을 테스트하세요.

Safari로 Google 홈페이지 방문하기

USB 플래시 메모리 사용 방법

VMware Workstation 17 Pro 소프트웨어에 설정된 가상 머신에서 USB 플래시 드라이브를 사용할 수 있습니다. 호스트가 컴퓨터에 USB 디스크를 삽입하자마자 프로그램 창에서 감지된 새 장치가 열리고 장치를 VM이나 호스트에 쉽게 연결할 수 있습니다.

1 단계

Windows 10 호스트 컴퓨터에 USB 플래시 디스크를 삽입합니다 . 새 USB 장치 감지 창이 열리면 가상 머신에 연결 옵션을 선택하고 가상 머신을 선택한 후 확인을 클릭합니다.

macOS VM에 USB 플래시 드라이브 연결

2 단계

macOS에서는 NTFS로 포맷된 플래시 드라이브를 사용할 수 없습니다 . 따라서 USB 스틱을 ExFAT로 포맷하면 도움이 될 것입니다. 디스크 유틸리티를 연 후 외부 섹션에서 플래시 디스크를 마우스 오른쪽 버튼으로 클릭하고 지우기를 클릭합니다.

디스크 포맷 창에서 이름 필드에 이름을 입력하고 포맷 필드에서 ExFAT를 선택한 후 지우기 버튼을 다시 클릭하세요.

플래시 드라이브를 ExFAT로 포맷

3단계

플래시 디스크를 ExFAT로 포맷한 후 데이터를 전송할 수 있습니다.

macOS에서 플래시 메모리 사용량 확인

4단계

이번에는 macOS VM에 연결된 플래시 디스크를 연결 해제하고 호스트에 연결하세요. 이는 Windows가 macOS에서 플래시 드라이브로 전송된 데이터를 볼 수 있는지 테스트하는 것을 목표로 합니다.

VM에서 이동식 장치 제거

5단계

Windows 10 호스트의 내 컴퓨터를 통해 플래시 메모리의 내용을 보면 VM에 생성된 Backup이라는 폴더를 볼 수 있습니다.

호스트를 통해 플래시 디스크의 내용 확인하기

macOS 게스트 머신의 성능을 향상시키는 방법

안타깝게도 macOS 운영 체제를 가상으로 실행하더라도 일부 응용 프로그램이나 게임은 3D 그래픽을 지원하지 않기 때문에 사용할 수 없습니다. 이는 사용되는 가상화 소프트웨어에서 macOS에 대한 3D 그래픽 지원이 없기 때문입니다.

게스트 시스템에 VMware Tools를 설치하면 그래픽 메모리를 3MB에서 128MB로 늘릴 수 있습니다. 그러나 새 컴퓨터를 사용하더라도 이 방법은 작동하지 않습니다.

최소한 소프트웨어 개발자나 Apple 시스템을 경험하고 싶은 사람들에게는 이상적일 수 있습니다. 예를 들어 Intel의 12세대 또는 13세대 프로세서에서도 최신 macOS 버전을 VM과 함께 사용하면 성능 문제가 발생합니다.

시스템의 시각 효과를 변경하거나, 메뉴 전환 효과를 조정하거나, 화면 해상도를 낮추는 등의 작업은 시스템 성능에 약간의 영향을 미칠 수 있습니다.

아래 나열된 코드를 사용하여 시스템 설정을 빠르게 변경할 수 있습니다. 미리 스냅샷 으로 시스템을 백업하는 것을 잊지 마세요 !

  • Dock에 대한 빠른 액세스
sudo defaults write com.apple.dock autohide-time-modifier -float 0.15
  • 시각 효과 끄기
sudo defaults write com.apple.finder DisableAllAnimations -bool true
sudo defaults write com.apple.finder InitialSpringBoardDelay -float 0
  • 스포트라이트 검색 비활성화
sudo mdutil -a -i off
  • 시각 효과의 지연 시간 단축
sudo defaults write -g com.apple.mouse.scaling -float 5.0
sudo defaults write -g com.apple.trackpad.scaling -float 5.0
sudo defaults write -g InitialKeyRepeat -int 15
sudo defaults write -g KeyRepeat -int 2
  • 창 민감도 설정
sudo defaults write com.apple.driver.AppleBluetoothMultitouch.trackpad TrackpadThreeFingerDrag -bool true
sudo defaults write com.apple.driver.AppleBluetoothMultitouch.trackpad TrackpadThreeFingerHorizSwipeGesture -int 0
sudo defaults write com.apple.driver.AppleBluetoothMultitouch.trackpad TrackpadThreeFingerVertSwipeGesture -int 0
  • 드래그 속도 증가
sudo defaults write -g com.apple.trackpad.scaling 2.5
sudo defaults write NSGlobalDomain NSWindowResizeTime -float 0.001
  • 해상도 낮추기
sudo /Library/Application\ Support/VMware\ Tools/vmware-resolutionSet 1920 1080
  • CPU 부하를 줄이기 위해 시각 효과 끄기
sudo defaults write com.apple.universalaccess reduceMotion -bool true
  • Safari에서 시각 효과 끄기
sudo defaults write com.apple.Safari WebKitInitialTimedLayoutDelay 0.25
  • 블루투스 비활성화
sudo defaults write /Library/Preferences/com.apple.Bluetooth.plist ControllerPowerState 0
  • 메뉴 전환 효과 끄기
sudo defaults write NSGlobalDomain NSAutomaticWindowAnimationsEnabled -bool false

관련 기사

1) VirtualBox로 macOS 실행하기
2) ESXi로 macOS 실행하기
3) PlayOnMac 활용하기
4) Mac에서 Wine 활용하기

ESXi – Patch Upgrade(ESXCLI Online Depot)

1. 신규 업데이트 patch가 있는지 검색 (* VMWare 홈페이지 login 필수)

https://customerconnect.vmware.com/patch

신규 등록된 업데이트가 있는지 확인 후 ESXi-7.0U3o-22348816와 같은 버젼 정보 확인(copy)

2. ESXCLI를 사용하여 ESXI 업그레이드
1. ESXi 다이렉트 콘솔(DCUI)에서 시스템 사용자 지정 및 문제 해결 옵션에서 ESXi 셸 을 활성화하고 SSH를 활성화합니다. 기본적으로 ESXi SSH는 사용 하지 못하도록 중지 되어 있습니다.

     2. 웹 브라우저에서 ESXi 호스트의 IP 주소를 입력합니다. ESXi 루트 자격 증명을 사용하여 VMware 호스트 클라이언트에 로그인합니다. VMware 호스트 클라이언트의 웹 인터페이스에서 ESXi에 접속 -> 관리 -> 서비스 -> SSH 시작

3. Putty 등으로 SSH 접속 후 esxcli 수행

esxcli software profile update -p ESXi-7.0U3o-22348816-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml

WMWare 홈페이지에서 검색했던 Patch 명칭 중 “ESXi” ~ “build number :xxxxxxxx” 까지 복사 후 “-standard 붙임. (* ESXi-7.0U3o-22348816-standard )

– 오류 발생시 오류 무시

esxcli software profile update -p ESXi-7.0U3o-22348816-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml --no-hardware-warning --no-sig-check

– 실행 결과

[root@localhost:~] esxcli software vib update -d /vmfs/volumes/datastore3/DATA/ESXI7X/VMware-ESXi-7.0.1-16555998-depot.zip
Installation Result
  Message: The update completed successfully, but the system needs to be rebooted for the changes to be effective.
  Reboot Required: true
  VIBs Installed: VMW_bootbank_bnxtnet_216.0.50.0-16vmw.701.0.0.16555998, VMW_bootbank_bnxtroce_216.0.58.0-7vmw.701.0.0.16555998, VMW_bootbank_brcmfcoe_12.0.1500.0-1vmw.701.0.0.16555998, VMW_bootbank_elxiscsi_12.0.1200.0-2vmw.701.0.0.16555998, VMW_bootbank_elxnet_12.0.1250.0-5vmw.701.0.0.16555998, VMW_bootbank_i40en_1.8.1.121-1vmw.701.0.0.16555998, VMW_bootbank_iavmd_2.0.0.1055-5vmw.701.0.0.16555998, VMW_bootbank_igbn_0.1.1.0-7vmw.701.0.0.16555998, VMW_bootbank_iser_1.1.0.1-1vmw.701.0.0.16555998, VMW_bootbank_ixgben_1.7.1.28-1vmw.701.0.0.16555998, VMW_bootbank_lpfc_12.6.278.10-8vmw.701.0.0.16555998, VMW_bootbank_lpnic_11.4.62.0-1vmw.701.0.0.16555998, VMW_bootbank_lsi-mr3_7.712.51.00-1vmw.701.0.0.16555998, VMW_bootbank_lsi-msgpt2_20.00.06.00-2vmw.701.0.0.16555998, VMW_bootbank_lsi-msgpt35_13.00.13.00-1vmw.701.0.0.16555998, VMW_bootbank_lsi-msgpt3_17.00.10.00-1vmw.701.0.0.16555998, VMW_bootbank_mtip32xx-native_3.9.8-1vmw.701.0.0.16555998, VMW_bootbank_ne1000_0.8.4-11vmw.701.0.0.16555998, VMW_bootbank_nenic_1.0.29.0-2vmw.701.0.0.16555998, VMW_bootbank_nfnic_4.0.0.44-2vmw.701.0.0.16555998, VMW_bootbank_nhpsa_70.0050.0.100-1vmw.701.0.0.16555998, VMW_bootbank_nmlx4-core_3.19.16.8-2vmw.701.0.0.16555998, VMW_bootbank_nmlx4-en_3.19.16.8-2vmw.701.0.0.16555998, VMW_bootbank_nmlx4-rdma_3.19.16.8-2vmw.701.0.0.16555998, VMW_bootbank_nmlx5-core_4.19.16.8-2vmw.701.0.0.16555998, VMW_bootbank_nmlx5-rdma_4.19.16.8-2vmw.701.0.0.16555998, VMW_bootbank_ntg3_4.1.5.0-0vmw.701.0.0.16555998, VMW_bootbank_nvmxnet3-ens_2.0.0.22-1vmw.701.0.0.16555998, VMW_bootbank_nvmxnet3_2.0.0.30-1vmw.701.0.0.16555998, VMW_bootbank_pvscsi_0.1-2vmw.701.0.0.16555998, VMW_bootbank_qcnic_1.0.15.0-10vmw.701.0.0.16555998, VMW_bootbank_qedentv_3.40.3.0-12vmw.701.0.0.16555998, VMW_bootbank_qfle3_1.0.67.0-9vmw.701.0.0.16555998, VMW_bootbank_qfle3f_1.0.51.0-14vmw.701.0.0.16555998, VMW_bootbank_qfle3i_1.0.15.0-9vmw.701.0.0.16555998, VMW_bootbank_qflge_1.1.0.11-1vmw.701.0.0.16555998, VMW_bootbank_rste_2.0.2.0088-7vmw.701.0.0.16555998, VMW_bootbank_sfvmk_2.4.0.0010-15vmw.701.0.0.16555998, VMW_bootbank_smartpqi_70.4000.0.100-3vmw.701.0.0.16555998, VMW_bootbank_vmkata_0.1-1vmw.701.0.0.16555998, VMW_bootbank_vmkfcoe_1.0.0.2-1vmw.701.0.0.16555998, VMW_bootbank_vmkusb_0.1-1vmw.701.0.0.16555998, VMW_bootbank_vmw-ahci_2.0.5-1vmw.701.0.0.16555998, VMware_bootbank_cpu-microcode_7.0.1-0.0.16555998, VMware_bootbank_elx-esx-libelxima.so_12.0.1200.0-3vmw.701.0.0.16555998, VMware_bootbank_esx-base_7.0.1-0.0.16555998, VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.0.16555998, VMware_bootbank_esx-ui_1.34.3-16465366, VMware_bootbank_esx-update_7.0.1-0.0.16555998, VMware_bootbank_esx-xserver_7.0.1-0.0.16555998, VMware_bootbank_lsuv2-hpv2-hpsa-plugin_1.0.0-3vmw.701.0.0.16555998, VMware_bootbank_lsuv2-intelv2-nvme-vmd-plugin_1.0.0-2vmw.701.0.0.16555998, VMware_bootbank_lsuv2-lsiv2-drivers-plugin_1.0.0-4vmw.701.0.0.16555998, VMware_bootbank_lsuv2-smartpqiv2-plugin_1.0.0-4vmw.701.0.0.16555998, VMware_bootbank_native-misc-drivers_7.0.1-0.0.16555998, VMware_bootbank_qlnativefc_4.0.3.0-17vmw.701.0.0.16555998, VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.38-1vmw.701.0.0.16555998, VMware_bootbank_vsan_7.0.1-0.0.16555998, VMware_bootbank_vsanhealth_7.0.1-0.0.16555998
  VIBs Removed: VMW_bootbank_ata-libata-92_3.00.9.2-16vmw.670.0.0.8169922, VMW_bootbank_ata-pata-amd_0.3.10-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-atiixp_0.4.6-4vmw.670.0.0.8169922, VMW_bootbank_ata-pata-cmd64x_0.2.5-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-hpt3x2n_0.3.4-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-pdc2027x_1.0-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-serverworks_0.4.3-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-sil680_0.4.8-3vmw.670.0.0.8169922, VMW_bootbank_ata-pata-via_0.3.3-2vmw.670.0.0.8169922, VMW_bootbank_block-cciss_3.6.14-10vmw.670.0.0.8169922, VMW_bootbank_bnxtnet_20.6.101.7-24vmw.670.3.73.14320388, VMW_bootbank_bnxtroce_20.6.101.0-20vmw.670.1.28.10302608, VMW_bootbank_brcmfcoe_11.4.1078.25-14vmw.670.3.73.14320388, VMW_bootbank_char-random_1.0-3vmw.670.0.0.8169922, VMW_bootbank_ehci-ehci-hcd_1.0-4vmw.670.0.0.8169922, VMW_bootbank_elxiscsi_11.4.1174.0-2vmw.670.0.0.8169922, VMW_bootbank_elxnet_11.4.1097.0-5vmw.670.3.73.14320388, VMW_bootbank_hid-hid_1.0-3vmw.670.0.0.8169922, VMW_bootbank_i40en_1.8.1.9-2vmw.670.3.73.14320388, VMW_bootbank_iavmd_1.2.0.1011-2vmw.670.0.0.8169922, VMW_bootbank_igbn_0.1.1.0-5vmw.670.3.73.14320388, VMW_bootbank_ima-qla4xxx_2.02.18-1vmw.670.0.0.8169922, VMW_bootbank_ipmi-ipmi-devintf_39.1-5vmw.670.1.28.10302608, VMW_bootbank_ipmi-ipmi-msghandler_39.1-5vmw.670.1.28.10302608, VMW_bootbank_ipmi-ipmi-si-drv_39.1-5vmw.670.1.28.10302608, VMW_bootbank_iser_1.0.0.0-1vmw.670.1.28.10302608, VMW_bootbank_ixgben_1.7.1.16-2vmw.670.3.104.16075168, VMW_bootbank_lpfc_11.4.33.26-14vmw.670.3.104.16075168, VMW_bootbank_lpnic_11.4.59.0-1vmw.670.0.0.8169922, VMW_bootbank_lsi-mr3_7.708.07.00-3vmw.670.3.73.14320388, VMW_bootbank_lsi-msgpt2_20.00.06.00-2vmw.670.3.73.14320388, VMW_bootbank_lsi-msgpt35_09.00.00.00-5vmw.670.3.73.14320388, VMW_bootbank_lsi-msgpt3_17.00.02.00-1vmw.670.3.73.14320388, VMW_bootbank_misc-cnic-register_1.78.75.v60.7-1vmw.670.0.0.8169922, VMW_bootbank_misc-drivers_6.7.0-2.48.13006603, VMW_bootbank_mtip32xx-native_3.9.8-1vmw.670.1.28.10302608, VMW_bootbank_ne1000_0.8.4-2vmw.670.2.48.13006603, VMW_bootbank_nenic_1.0.29.0-1vmw.670.3.73.14320388, VMW_bootbank_net-bnx2_2.2.4f.v60.10-2vmw.670.0.0.8169922, VMW_bootbank_net-bnx2x_1.78.80.v60.12-2vmw.670.0.0.8169922, VMW_bootbank_net-cdc-ether_1.0-3vmw.670.0.0.8169922, VMW_bootbank_net-cnic_1.78.76.v60.13-2vmw.670.0.0.8169922, VMW_bootbank_net-e1000_8.0.3.1-5vmw.670.3.112.16701467, VMW_bootbank_net-e1000e_3.2.2.1-2vmw.670.0.0.8169922, VMW_bootbank_net-enic_2.1.2.38-2vmw.670.0.0.8169922, VMW_bootbank_net-fcoe_1.0.29.9.3-7vmw.670.0.0.8169922, VMW_bootbank_net-forcedeth_0.61-2vmw.670.0.0.8169922, VMW_bootbank_net-igb_5.0.5.1.1-5vmw.670.0.0.8169922, VMW_bootbank_net-ixgbe_3.7.13.7.14iov-20vmw.670.0.0.8169922, VMW_bootbank_net-libfcoe-92_1.0.24.9.4-8vmw.670.0.0.8169922, VMW_bootbank_net-mlx4-core_1.9.7.0-1vmw.670.0.0.8169922, VMW_bootbank_net-mlx4-en_1.9.7.0-1vmw.670.0.0.8169922, VMW_bootbank_net-nx-nic_5.0.621-5vmw.670.0.0.8169922, VMW_bootbank_net-tg3_3.131d.v60.4-2vmw.670.0.0.8169922, VMW_bootbank_net-usbnet_1.0-3vmw.670.0.0.8169922, VMW_bootbank_net-vmxnet3_1.1.3.0-3vmw.670.3.104.16075168, VMW_bootbank_nfnic_4.0.0.44-0vmw.670.3.104.16075168, VMW_bootbank_nhpsa_2.0.22-3vmw.670.1.28.10302608, VMW_bootbank_nmlx4-core_3.17.13.1-1vmw.670.2.48.13006603, VMW_bootbank_nmlx4-en_3.17.13.1-1vmw.670.2.48.13006603, VMW_bootbank_nmlx4-rdma_3.17.13.1-1vmw.670.2.48.13006603, VMW_bootbank_nmlx5-core_4.17.13.1-1vmw.670.3.73.14320388, VMW_bootbank_nmlx5-rdma_4.17.13.1-1vmw.670.2.48.13006603, VMW_bootbank_ntg3_4.1.5.0-0vmw.670.3.116.16713306, VMW_bootbank_nvme_1.2.2.28-3vmw.670.3.116.16713306, VMW_bootbank_nvmxnet3-ens_2.0.0.21-1vmw.670.0.0.8169922, VMW_bootbank_nvmxnet3_2.0.0.29-1vmw.670.1.28.10302608, VMW_bootbank_ohci-usb-ohci_1.0-3vmw.670.0.0.8169922, VMW_bootbank_pvscsi_0.1-2vmw.670.0.0.8169922, VMW_bootbank_qcnic_1.0.2.0.4-1vmw.670.0.0.8169922, VMW_bootbank_qedentv_2.0.6.4-10vmw.670.1.28.10302608, VMW_bootbank_qfle3_1.0.50.11-9vmw.670.0.0.8169922, VMW_bootbank_qfle3f_1.0.25.0.2-15vmw.670.3.104.16075168, VMW_bootbank_qfle3i_1.0.2.3.9-3vmw.670.0.0.8169922, VMW_bootbank_qflge_1.1.0.11-1vmw.670.0.0.8169922, VMW_bootbank_sata-ahci_3.0-26vmw.670.0.0.8169922, VMW_bootbank_sata-ata-piix_2.12-10vmw.670.0.0.8169922, VMW_bootbank_sata-sata-nv_3.5-4vmw.670.0.0.8169922, VMW_bootbank_sata-sata-promise_2.12-3vmw.670.0.0.8169922, VMW_bootbank_sata-sata-sil24_1.1-1vmw.670.0.0.8169922, VMW_bootbank_sata-sata-sil_2.3-4vmw.670.0.0.8169922, VMW_bootbank_sata-sata-svw_2.3-3vmw.670.0.0.8169922, VMW_bootbank_scsi-aacraid_1.1.5.1-9vmw.670.0.0.8169922, VMW_bootbank_scsi-adp94xx_1.0.8.12-6vmw.670.0.0.8169922, VMW_bootbank_scsi-aic79xx_3.1-6vmw.670.0.0.8169922, VMW_bootbank_scsi-bnx2fc_1.78.78.v60.8-1vmw.670.0.0.8169922, VMW_bootbank_scsi-bnx2i_2.78.76.v60.8-1vmw.670.0.0.8169922, VMW_bootbank_scsi-fnic_1.5.0.45-3vmw.670.0.0.8169922, VMW_bootbank_scsi-hpsa_6.0.0.84-3vmw.670.0.0.8169922, VMW_bootbank_scsi-ips_7.12.05-4vmw.670.0.0.8169922, VMW_bootbank_scsi-iscsi-linux-92_1.0.0.2-3vmw.670.0.0.8169922, VMW_bootbank_scsi-libfc-92_1.0.40.9.3-5vmw.670.0.0.8169922, VMW_bootbank_scsi-megaraid-mbox_2.20.5.1-6vmw.670.0.0.8169922, VMW_bootbank_scsi-megaraid-sas_6.603.55.00-2vmw.670.0.0.8169922, VMW_bootbank_scsi-megaraid2_2.00.4-9vmw.670.0.0.8169922, VMW_bootbank_scsi-mpt2sas_19.00.00.00-2vmw.670.0.0.8169922, VMW_bootbank_scsi-mptsas_4.23.01.00-10vmw.670.0.0.8169922, VMW_bootbank_scsi-mptspi_4.23.01.00-10vmw.670.0.0.8169922, VMW_bootbank_scsi-qla4xxx_5.01.03.2-7vmw.670.0.0.8169922, VMW_bootbank_sfvmk_1.0.0.1003-7vmw.670.3.104.16075168, VMW_bootbank_shim-iscsi-linux-9-2-1-0_6.7.0-0.0.8169922, VMW_bootbank_shim-iscsi-linux-9-2-2-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libata-9-2-1-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libata-9-2-2-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libfc-9-2-1-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libfc-9-2-2-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libfcoe-9-2-1-0_6.7.0-0.0.8169922, VMW_bootbank_shim-libfcoe-9-2-2-0_6.7.0-0.0.8169922, VMW_bootbank_shim-vmklinux-9-2-1-0_6.7.0-0.0.8169922, VMW_bootbank_shim-vmklinux-9-2-2-0_6.7.0-0.0.8169922, VMW_bootbank_shim-vmklinux-9-2-3-0_6.7.0-0.0.8169922, VMW_bootbank_smartpqi_1.0.1.553-28vmw.670.3.73.14320388, VMW_bootbank_uhci-usb-uhci_1.0-3vmw.670.0.0.8169922, VMW_bootbank_usb-storage-usb-storage_1.0-3vmw.670.0.0.8169922, VMW_bootbank_usbcore-usb_1.0-3vmw.670.0.0.8169922, VMW_bootbank_vmkata_0.1-1vmw.670.0.0.8169922, VMW_bootbank_vmkfcoe_1.0.0.1-1vmw.670.1.28.10302608, VMW_bootbank_vmkplexer-vmkplexer_6.7.0-0.0.8169922, VMW_bootbank_vmkusb_0.1-1vmw.670.3.116.16713306, VMW_bootbank_vmw-ahci_2.0.5-1vmw.670.3.116.16713306, VMW_bootbank_xhci-xhci_1.0-3vmw.670.0.0.8169922, VMware_bootbank_cpu-microcode_6.7.0-3.112.16701467, VMware_bootbank_elx-esx-libelxima.so_11.4.1184.2-3.89.15160138, VMware_bootbank_esx-base_6.7.0-3.116.16713306, VMware_bootbank_esx-dvfilter-generic-fastpath_6.7.0-0.0.8169922, VMware_bootbank_esx-ui_1.33.7-15803439, VMware_bootbank_esx-update_6.7.0-3.116.16713306, VMware_bootbank_esx-xserver_6.7.0-3.73.14320388, VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-16vmw.670.1.28.10302608, VMware_bootbank_lsu-intel-vmd-plugin_1.0.0-2vmw.670.1.28.10302608, VMware_bootbank_lsu-lsi-drivers-plugin_1.0.0-1vmw.670.2.48.13006603, VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-13vmw.670.1.28.10302608, VMware_bootbank_lsu-lsi-lsi-msgpt3-plugin_1.0.0-9vmw.670.2.48.13006603, VMware_bootbank_lsu-lsi-megaraid-sas-plugin_1.0.0-9vmw.670.0.0.8169922, VMware_bootbank_lsu-lsi-mpt2sas-plugin_2.0.0-7vmw.670.0.0.8169922, VMware_bootbank_lsu-smartpqi-plugin_1.0.0-3vmw.670.1.28.10302608, VMware_bootbank_native-misc-drivers_6.7.0-3.89.15160138, VMware_bootbank_qlnativefc_3.1.8.0-5vmw.670.3.73.14320388, VMware_bootbank_rste_2.0.2.0088-7vmw.670.0.0.8169922, VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.36-2vmw.670.3.116.16713306, VMware_bootbank_vsan_6.7.0-3.116.16631671, VMware_bootbank_vsanhealth_6.7.0-3.116.16631672
  VIBs Skipped: VMW_bootbank_brcmnvmefc_12.6.278.10-3vmw.701.0.0.16555998, VMW_bootbank_i40iwn_1.1.2.6-1vmw.701.0.0.16555998, VMW_bootbank_icen_1.0.0.8-1vmw.701.0.0.16555998, VMW_bootbank_nvme-pcie_1.2.3.9-1vmw.701.0.0.16555998, VMW_bootbank_nvmerdma_1.0.1.2-1vmw.701.0.0.16555998, VMW_bootbank_qedrntv_3.40.4.0-12vmw.701.0.0.16555998, VMware_bootbank_crx_7.0.1-0.0.16555998, VMware_bootbank_gc_7.0.1-0.0.16555998, VMware_bootbank_loadesx_7.0.1-0.0.16555998, VMware_bootbank_lsuv2-nvme-pcie-plugin_1.0.0-1vmw.701.0.0.16555998, VMware_bootbank_lsuv2-oem-dell-plugin_1.0.0-1vmw.701.0.0.16555998, VMware_bootbank_lsuv2-oem-hp-plugin_1.0.0-1vmw.701.0.0.16555998, VMware_bootbank_lsuv2-oem-lenovo-plugin_1.0.0-1vmw.701.0.0.16555998, VMware_bootbank_vdfs_7.0.1-0.0.16555998, VMware_locker_tools-light_11.1.1.16303738-16555998

– 업데이트 적용 (리부팅)

[root@localhost:~] reboot

4. 드라이버 재설치 또는 업그레이드 진행(필요시에만)

– LSI 드라이버 설치

[root@localhost:/tmp] esxcli software vib install -v /tmp/vmware-esx-provider-lsiprovider.vib
Installation Result
  Message: The update completed successfully, but the system needs to be rebooted for the changes to be effective.
  Reboot Required: true
  VIBs Installed: LSI_bootbank_lsiprovider_500.04.V0.73-0002
  VIBs Removed: 
  VIBs Skipped:
[root@localhost:~] esxcli software vib update -d /tmp/BCM-lsiprovider_700.00.V0.77-0004_16271874.zip
Installation Result
  Message: The update completed successfully, but the system needs to be rebooted for the changes to be effective.
  Reboot Required: true
  VIBs Installed: BCM_bootbank_lsiprovider_700.00.V0.77-0004
  VIBs Removed: LSI_bootbank_lsiprovider_500.04.V0.73-0002
  VIBs Skipped: 
[root@localhost:~]

– CIM Provider Package for VMware ESXi 7.0

[root@localhost:~] esxcli software vib update -d /tmp/Broadcom-ELX-CIMProvider_12.6.240.9-01OEM.700.1.0.15525992-signed_component-15920419.zip
Installation Result
  Message: The update completed successfully, but the system needs to be rebooted for the changes to be effective.
  Reboot Required: true
  VIBs Installed: EMU_bootbank_emulex-cim-provider_12.6.240.9-01OEM.700.1.0.15525992
  VIBs Removed: EMU_bootbank_emulex-cim-provider_12.4.243.7-01OEM.670.0.0.8169922
  VIBs Skipped: 
[root@localhost:~]
[root@localhost:~] esxcli software vib install -v /tmp/vmware-esx-MegaCli-8.07.07.vib --no-sig-check
Installation Result
  Message: WARNING: Only live system was updated, the change is not persistent.
  Reboot Required: false
  VIBs Installed: LSI_bootbank_vmware-esx-MegaCli-8.07.07_8.07.07-01
  VIBs Removed: 
  VIBs Skipped: 
[root@localhost:~]

 

– 결과 확인

[root@localhost:~] esxcli software vib list 
Name                    Version                Vendor Acceptance Level Install Date
----------------------------------------- ------------------------------------ ------ ---------------- ------------
lsiprovider                   700.00.V0.77-0004            BCM   VMwareAccepted  2020-09-07
emulex-cim-provider              12.4.243.7-01OEM.670.0.0.8169922   EMU   VMwareAccepted  2020-02-23
vmware-esx-MegaCli-8.07.07          8.07.07-01                LSI   PartnerSupported 2020-09-07
NVIDIA-kepler-VMware_ESXi_6.5_Host_Driver 367.64-1OEM.650.0.0.4240417      NVIDIA VMwareAccepted  2018-03-23

Windows10 – Raid 0 Configuration using Storage Space

저장소 공간을 이용한 Raid 0은(단순-Simple 유형) 구성을해도 속도 향상이 거의 없어

스팬 볼륨일 거라는 말이 많았죠.

구글링을 해보니 저장소 공간 GUI에서는 제대로된 Raid 0 설정을 할 수 없고 파워쉘을 통해 구성

해야만 되는 거였습니다.

 

저장소 공간의 “Columns”라는 “열” 설정이 동시에 읽기/쓰기를 할수 있는 피지컬 드라이브 숫자

설정인데 GUI에서 2개의 디스크로 단순(Simple) 유형을 만들면 “Columns”이 “1”로 설정되어 속도

향상이 없던거였습니다.  GUI에는 바꿀수있는 옵션이 없습니다.

파워쉘로 “Columns” 를 설정해 만들어주면 Raid 0으로 아주 잘되고 속도 또한 좋습니다.

저장소 공간 Raid 0의 장점은 SSD 트림을 확실하게 지원합니다.

 

디스크관리자와 작업관리자에서 보드내장 Raid 처럼 하나의 드라이브만 표시 되어 관리가 쉽습니다.

데이터 삭제 없이 디스크를 추가할 수 있습니다.

** 디스크 추가는 처음 설정된 “Columns(열)” 수의 배수로 추가해야 되고 “Columns”수는 고정으로 변하지 않습니다.

예를들어 “2열” 설정으로 디스크 2개를 묶었으면 나중에 추가할때 디스크 2개를 추가해야하고(2,4,6,8…)

디스크 4개가 되도 열수는 “2열” 고정이라 2개 묶은 속도만 나옵니다.

속도는 상관 없고 추가 용량만 필요한 상황일때 좋겠죠.

 

이제 만드는 방법입니다.

처음부터 끝까지 파워쉘로만 만드는 방법이 있으나 어려우니 저장소 풀 까지는 GUI에서 만듭니다.

1. 디스크관리자를 실행해 Raid 0으로 묶을 디스크들의 볼륨을 삭제 합니다.

2. 제어판 – 저장소공간 – 새 풀 및 저장소 공간 만들기로 들어갑니다.

e3fd12641178cb89c00b4589ca2d69ce9b7b9006.png

 

3. 드라이브를 선택하고 풀 만들기를 합니다.

9decc1eca47a0227e615d944ac75e70b2473b71f.png

 

* 생성 오류가 나는 경우 디스크 초기화를 합니다. 방법은 관리자모드 파워쉘을 실행하고

Get-PhysicalDisk | ft FriendlyName, SerialNumber, UniqueId -auto

하면 드라이브 목록이 뜹니다.

Reset-PhysicalDisk -FriendlyName “WDC WD20 EZRZ-00Z5HB0”

목록에서  초기화할 디스크의 FriendlyName 을 “WDC WD20 EZRZ-00Z5HB0” 에 적어 초기화합니다.

 

4. 저장소 풀은 만들어 졌으니  “취소” 를 누르고 나갑니다.

6e05bacf1462fb1e65c00fd870ce6c70bb21fc36.png

“저장소 공간 만들기” 누르면 “Columns” “1” 설정으로 바로 만들어져서 전부 삭제하고 다시 해야 됩니다.

 

5. 오른쪽에 “풀 이름 바꾸기”에 들어갑니다. 활성화가 안되어 있으면 “확인” 위에있는 설정변경을 누르면 됩니다.

f7d7964864811c9400b7e002a7d04d7d7a4cb832.png

 

6. 원하는 이름으로 바꾸고 “풀 이름 바꾸기”

bf22a860ee296d552a1086640e4c34ebf1e8a55b.png

 

7. 관리자모드 파워쉘을 열고

New-VirtualDisk -FriendlyName WriteBack -StoragePoolFriendlyName  “NVME”  -NumberOfColumns 2 -Interleave 32768 -ResiliencySettingName simple -UseMaximumSize

입력합니다.

-FriendlyName WriteBack : 만들어질 가상 드라이브(Raid0)의 이름인데 나중에 초기화 해야되니 아무거나 해도 됩니다.

-StoragePoolFriendlyName  “NVME” : 6번에서 바꿔준 이름을 넣습니다.

-Interleave 32768 : 스트라이프 사이즈입니다. 이 옵션을 빼면 저장소 기본 256K로 됩니다. 일반환경에선 64K나 128K 정도가 성능이 가장 좋습니다. 1024를 곱해서 넣어주면 됩니다. 잔파일이 많을수록 작게, 큰파일이 많을수록 크게 잡는게 좋습니다.

저는 잔파일이 아주 많은 스크래치 디스크라 32K로 했습니다.

-NumberOfColumns 2 :  가장 중요한 2열을 쓴다는 설정입니다. 디스크가 3개면 3을 넣어야겠죠.

-ResiliencySettingName simple -UseMaximumSize : 유형을 단순(Raid0)으로, 디스크 크기는 적용할수있는 최대 사이즈로 만듭니다.

 

8. 또 다른 내 경우 4개의 NVMe disk Raid 0 으로 설정하기 위해 아래 설정을 이용

New-VirtualDisk -FriendlyName WriteBack -StoragePoolFriendlyName “NVME” -NumberOfColumns 4 -Interleave 131072 -ResiliencySettingName simple -UseMaximumSize

 

9.제대로 만들어지면 이렇게 나옵니다.

b3f16072b98141be884d50edfab0489fa3d50999.png

 

10. 디스크 관리자를 실행해서 초기화하고 포맷하고 쓰면 됩니다.

9789c1e3cb973b5c127c530acd310fdba43a1253.png

길어보여도 중간에 파워쉘 명령어만 잘 입력하면 쉽게 만들어 집니다.

 

참고 링크

https://answers.microsoft.com/en-us/windows/forum/windows_10-files/storage-spaces-trying-to-create-a-raid-0-with/c440086c-4bb6-410d-9e92-fd98ce6626cc

https://social.technet.microsoft.com/Forums/en-US/322755f0-6a38-49b5-9158-49ae04031098/storage-spaces-only-supports-jbod-and-not-raid0?forum=win10itprovirt

https://www.dell.com/support/manuals/ko-kr/storage-md1420-dsms/dsms_bpg_pub-v2/microsoft-storage-spaces-best-practices?guid=guid-8d032e58-86f2-4d36-9617-7a82596848f5

– 델의 마소 저장소 공간 설명서 인데 여러개의 하드를 묶고 SSD로 캐시를 구성하는 방법까지 잘 나와 있습니다.

———————————————————————————————————————————–

<추가합니다.>

** GUI로 풀생성시 물리섹터가 4K인 디스크들을 묶으면 논리섹터가 4K로 잡힙니다.

데이터 입출력에는 문제가 없으나 프로그램이나 게임 실행시 오류가 날수있습니다.

이럴땐 GUI가 아닌 파워쉘에서 논리섹터를 강제로 512로 잡아 풀을 생성해야 합니다.

물리섹터가 512인 디스크들은 자동 논리섹터 512로 잡힙니다.

 

관리자모드 파워쉘을 실행합니다.

Get-PhysicalDisk | sort-object SlotNumber | select SlotNumber, FriendlyName, Manufacturer, Model, PhysicalSectorSize, LogicalSectorSize | ft

연결된 디스크들의 물리와 논리 섹터를 보여주는 파워쉘 명령어 입니다.

묶을 디스크의 물리섹터가 4K(4096)이고 게임이나 프로그램을 실행한다면 파워쉘로 논리섹터 512로

저장소 풀을 생성합니다.

$PhysicalDisks = (Get-PhysicalDisk -CanPool $True)

풀생성 가능한 디스크들을 보여주고 “$PhysicalDisks” 항목으로 설정.

여기서 보이는 디스크들이 전부 저장소 풀이 됩니다.

New-StoragePool -FriendlyName NVME -StorageSubsystemFriendlyName “Windows Storage*” -PhysicalDisks $PhysicalDisks -LogicalSectorSizeDefault 512

“NVME”라는(원하시는거로 바꿔 주세요.) 새로운 풀을 생성합니다.

-LogicalSectorSizeDefault 512 : 논리섹터 사이즈 512로 설정.

이후 7번 항목 “New-VirtualDisk” 로 저장소 공간을 만들어 주면 됩니다.

프로그램 실행 안하면 물리4k, 논리4K로 쓰는게 속도가 더 빠릅니다.

프로그램이나 게임을 실행한다면 논리섹터 512로 풀을 생성해야 합니다.

전부 그런건 아니지만 일부 게임이나 프로그램에서 논리섹터 4K를 쓰면 오류가 납니다.

물리섹터가 512인 디스크는 논리섹터 4K는 안되고 512만 됩니다.

하드,SSD의 물리섹터는 제품마다 4K, 512 제각각입니다 ㅡㅡ;

 

Docker Root Directory 위치 변경

개발 중인 서버에 접근해보니 루트 디렉토리가 91% 사용 중이었습니다.

(*도커의 루트 디렉토리 증설은 불가피했음.)

초기 설치 시 /var/lib/docker/overlay 디렉토리 경로 그대로 사용

01. 루트 디렉토리 설정 확인하기

docker info | grep Root 명령어로 Docker Root Dir이 /var/lib/docker임을 확인했습니다.

[root@totoli]# docker info | grep Root
 Docker Root Dir: /var/lib/docker

02. 루트 디렉토리 설정 변경하기

도커의 설정은 /etc/docker/daemon.json를 변경하면 됩니다.
json 형식으로 작성하면 되며, data-root 요소를 작성합니다.

[root@totoli]# vi /etc/docker/daemon.json

{
  "data-root": "/docker-data/data"		# 변경하고자 할 디렉토리로 작성합니다.
}

*example mount path : "/docker-data" 
mkdir /docker-data/data
cp -rp /var/lib/docker/* /docker-data/data/

03. 설정 변경 후 도커 재기동하기

[root@totoli]# systemctl restart docker

04. 루트 디렉토리 설정 재확인하기

docker info | grep Root 명령어로 다시 한번 확인합니다.
설정했던 바와 같이 /docker-data/data로 변경됨을 확인할 수 있습니다.

[root@totoli]# docker info | grep Root
 Docker Root Dir: /docker-data/data

/var/lib/docker/~~~에서 /docker-data/data/~~~ 로 변경됨을 확인.

05. 기존 루트 디렉토리 삭제

docker info | grep Root 명령어로 다시 한번 확인합니다.
설정했던 바와 같이 /docker-data/data로 변경됨을 확인할 수 있습니다.

ls /docker-data/data
* 잘 복사된것 확인 후 .

[root@totoli]# rm /var/lib/docker -Rf

VirtualBox network settings (Upgrade settings)

Virtualbox NETWORK 설정

하드웨어 가상화의 핵심 아이디어 중 하나는 물리적 컴퓨터도 사용할 수 있는 거의 모든 경우에 가상 컴퓨터를 사용할 수 있다는 것입니다.

Virtual Network Adapters

각각 VirtualBox VM은 8개의 가상 네트워크 어댑터를 사용할 수 있고, VM은 NIC(Network Interface Controller)를 가지고 있는데 GUI에서는 4개의 어댑터를 설정할 수 있지만, cli의 VBoxManage modifyvm 명령어를 통해서 총 8개까지 설정할 수 있습니다.

VBoxManage 로 조정하는 것은 GUI로 봤을 때 vm 을 클릭 하고 setting을 눌러 network를 세팅하는 것을 말합니다.

Virtualbox_Setting

Virtualbox에서 제공하는 Network Adapters 종류

  • AMD PCnet-PCI II (Am79C970A)
  • AMD PCnet-FASt III (Am79C973)
  • Intel PRO/1000 MT Desktop (82540EM)
  • Intel PRO/1000 T Server (82543GC)
  • Intel PRO/1000 MT Server (825456EM)
  • Paravirtualized Network Adapter (virtui-net)

※ 업계 표준 virtIO 네트워킹 드라이버는 VirtualBox에서 지원됩니다. (VirtIO 네트워킹 드라이버는 KVM 프로젝트의 일부이며 오픈소스 입니다.)

Jumbo frames support

VirtualBox는 jumbo frames (Ethernet frames that can carry packets which size is more than 1,500 bytes)에 대한 제한된 지원을 제공합니다.

jumbo frames를 사용해야 할 경우

  • intel virtualized network adapter는 bridged mode를 설정해 사용합니다.
  • AMD-based virtual network adapter는 위 기능을 지원하지 않습니다.
    • 사용할 경우 입력 및 출력 트래픽에 대해 점보 프레임이 자동으로 삭제됩니다. (jumbo frames are disabled by default)

VirtualBox Network Modes

VirtualBox는여러 네트워크 모드를 제공합니다.(VM을 클릭, setting을 수정할 경우 VM의 어댑터가 연결될 네트워크와 VM의 네트워크 어댑터를 선택합니다.)

  • Not attached
  • NAT
  • NAT Network
  • Bridged Adapter
  • Internal Network
  • Host-only Adapter
  • Generic Driver
Not attached
  • VM에는 네트워크 어댑터가 설치 되어 있지만, 물리적으로 이더넷 케이블 뽑아 놓은 상황
NAT
  • 네트워크 어댑터 기본 설정으로 인터넷은 되지만, 외부에서 VM에 접속은 안 됩니다.
  • DHCP을 통해 (10.0.2.15) IP를 고정 할당 받습니다.

    (IP가 Virtualbox 에 built-in으로 고정되어 있습니다.)

  • 각 VM의 기본 게이트웨이는 10.0.2.2 입니다.
  • 네트워크 마스크 255.255.255.0 입니다.

※ 각각의 VM은 독립적인 NAT 디바이스로 구성되어 있습니다.

Virtualbox_NAT

NAT 모드 활성화 cli 명령어
1
VBoxManage modifyvm VM_name --nic1 nat

VM_name : 가상 기기 이름

nic1 : 가상 네트워크 어댑터 갯수

nat : 임의로 설정할 VirtualBox 네트워크 모드의 이름

​ [ none null nat natnetwork bridged intnet hostonly generic ]
  • 사용하지 않음 [none]
  • Not attached [null]
  • NAT [nat]
  • NAT Network [natnetwork]
  • Bridged Adapter [bridged]
  • Internal Network [intnet]
  • Host-only Adapter [hostonly]
  • Generic Driver [generic]
NAT Network

Virtualbox_NAT_Network

여러 VM에서 NAT Network를 사용할 경우 VM들은 NAT 네트워크를 통해서 VM들 끼리 통신이 가능하며, VM은 host 기기의 Physical NIC를 통해 외부 네트워크와 통신이 됩니다.

반면, 외부 네트워크의 모든 시스템과 호스트 시스템이 연결된 물리적 네트워크의 시스템은 NAT Network를 사용하도록 구성된 VM에 액세스 할 수 없습니다. (홈 네트워크에서 인터넷 액세스를 위해 라우터를 구성하는 경우와 비슷합니다.)

VirtualBox에서 NAT Network를 추가 구성할 수 있습니다.

Virtualbox_NAT_Setting

Virtualbox_NAT_Setting2

default NatNetwork 구성 스위치 IP CIDR 구성은 10.0.2.0/24 입니다.

해당 관리 gateway IP는 10.0.2.1 (구성했던 CIDR 형태에서 x.x.x.1 형태로 IP는 default Gateway IP로 할당 됩니다.)

ex) CIDR 192.168.22.0/24

-> Gateway IP는 : 192.168.22.1으로 설정됩니다.

-> DHCP Server : 192.168.22.3 으로 설정됩니다.

※ NAT Network에서 사용되는 네트워크 게이트웨이 IP 주소는 변경할 수 없으며 DHCP 서버에서 발급한 IP 주소 범위는 변경할 수 없습니다. (마찬가지로 DHCP 서버 IP 주소는 기본적으로 x.x.x.3 형태로 할당 됩니다.)

위에서 설정했던 설정을 cli로 설정할 경우
1
$ VBoxManage natnetwork add --netname natnet1 --network "192.168.22.0/24" --enable

natnet1 : NAT 네트워크 이름

192.168.22.0/24 : NAT 네트워크에 설정할 CIDR

VM 어댑터에 NAT Network를 붙이도록 설정할 경우
1
$ VBoxManage modifyvm VM_name --nic1 natnetwork

VM_name : 설정을 세팅할 VM

nic1 : 첫번째 VM 네트워크 어댑터

natnetwork : 사용할 Virtualbox network mode

※ VM 에 위의 세팅을 적용할 경우 VM을 restart 시켜줘야 할 수 있습니다.

  • 윈도우 6.0.12 r133076 GUI 로 수정 테스트 했을 때는 VM restart 없이 적용 되었습니다.

Port Forwarding

  • VM > Settings > Network : VM에서 사용할 NIC 어댑터와 연결할 네트워크에 대한 설정
  • File > Preferences > Network : NAT network를 설정, 추가 할 수 있는 설정
Bridged Adapter

VM의 가상 네트워크 어댑터를 VirtualBox 호스트 컴퓨터의 물리적 네트워크 어댑터가 연결된 물리적 네트워크에 연결하는 데 사용됩니다. VM 가상 네트워크 어댑터는 네트워크 연결에 호스트 네트워크 인터페이스를 사용합니다. 간단히 말해 네트워크 패킷은 추가 라우팅 없이 가상 네트워크 어댑터와 직접 주고 받습니다.

로컬 물리 네트워크에 접속하기 위해 주로 사용하며, VM에서 host, host와 연결된 네트워크, 외부 네트워크에 접속이 가능합니다. 이때 호스트에서 여러개의 물리 어댑터를 사용할 경우 사용할 어댑터를 설정해 주어야 합니다.

Virtualbox_BridgedAdapter

Bridged Adapter를 사용할 경우 VM 가상 네트워크 어댑터의 IP 주소는 호스트 컴퓨터의 물리적 네트워크 어댑터 IP 주소와 동일한 네트워크에 속할 수 있습니다. 이때 물리적 네트워크에 DHCP 서버가 있는 경우 VM의 가상 네트워크 어댑터는 Bridged mode에서 자동으로 IP주소를 얻습니다.

※ 게스트 OS의 네트워크 인터페이스 설정에서 자동으로 IP 주소 받기가 설정 된 경우에 가능


예를 들면

물리적 네트워크 주소 : 10.10.10.0/24

물리적 네트워크에 있는 기본 게이트웨이의 IP 주소 : 10.10.10.1

물리적 네트워크에 있는 DHCP 서버의 IP 주소 : 10.10.10.1

호스트 컴퓨터 IP 구성 : 10.10.10.72

넷 마스크 : 255.255.255.0

기본게이트웨이 : 10.10.10.1

게스트 컴퓨터의 IP 구성 : 10.10.10.91

넷 마스크 : 255.255.255.0

기본 게이트웨이 : 10.10.10.1

※ 따라서 bridge mode에서 작동하는 가상 네트워크 어댑터의 기본 게이트웨이는 호스트 컴퓨터와 동일합니다.


Virtualbox_BridgedNetworking

경우에 따라 물리적 네트워크에 여러 게이트웨이가 있는 경우가 있습니다. 하나의 게이트웨이를 통해 필요한 네트워크에 연결하기 위해 호스트 머신을 사용하고 두 번째 게이트웨이를 통해 다른 네트워크에 연결하기 위해 게스트 머신을 사용할 수 있습니다.

VM에서 라우팅 테이블을 편집하고 두 게이트웨이를 사용해 적절한 네트워크에 연결하기 위한 경로를 추가할 수도 있습니다.

Promiscuous mode (무작위 모드)

이 모드는 네트워크 어댑터가 지정되는 어댑터 주소에 관계없이 수신된 모든 트래픽을 전달할 수 있습니다. 일반 모드에서 네트워크 어댑터는 특정 네트워크 어댑터의 MAC 주소를 헤더의 대상 주소로 포함하는 프레임만 수신합니다.

이 모드는 물리적 네트워크 어댑터가 여러 MAC 주소를 가질수 있도록 할 수 있으며 모든 트래픽이 호스트 시스템의 물리적 네트워크 어댑터를 통과하고 호스트 어댑터에 표시되는 자체 MAC 주소가 있는 VM의 가상 네트워크 어댑터에 도달 할 수 있도록 합니다. IP가 설정되지 않은 VM 가상 네트워크 어댑터에도 도달됩니다.

무작위 모드 종류는 3개로 나뉘는데

  • Deny : VM의 가상 네트워크 어댑터로 보내지 않은 트래픽은 VM에서 숨겨집니다. (default)
  • Allow VMs : 다른 VM 과 주고 받는 트래픽을 제외하고 모든 트래픽은 VM 네트워크 어댑터에서 숨겨집니다.
  • Allow All : 제한이 없으며, VM 네트워크 어댑터는 모든 수신 및 발신 트래픽을 볼 수 있습니다.

Internal Network

내부 네트워크 모드에서 작동하도록 구성된 가상 머신은 격리된 가상 네트워크에 연결됩니다. 이 네트워크에 연결된 VM은 서로 통신할 수 있지만 VirtualBox 호스트 컴퓨터나 물리적 네트워크 또는 외부 네트워크의 다른 호스트와는 통신 할 수 없습니다. 내부 네트워크에 연결된 VM은 호스트 또는 다른 장치에서 액세스 할 수 없습니다. 주로 네트워크 모델링에 사용합니다.

예를 들어 각각 내부 네트워크에 연결된 가상 네트워크 어댑터(어댑터1)가 있는 세개의 VM을 만들 수 있습니다. 이러한 네트워크 어댑터의 IP 주소는 Virtualbox 내부 네트워크에 사용되는 서브넷에서 정의됩니다.(서브넷을 수동으로 정의해야 합니다.)

VM1 – (어댑터2) NAT mode 추가 설정 하여 라우터로 구성 (라우터 역할을 하기 위해 VM에 리눅스를 설치하고 iptables를 설치하는 것이 좋지만, 간단한 라우팅을 사용하기 위해서 내장된 기능을 사용한다.)

VM2, VM3 – 어댑터의 내부 네트워크 어댑터의 IP 주소가 있으면 외부 네트워크에 액세스 할 수있는 유일한 Virtual network에 접속되어 VM1은 네트워크 설정에서 게이트웨이로서 설정합니다.

구성으로 표현하자면

VM1

IP : 192.168.23.1 (내부 네트워크 모드), 10.0.2.15 (NAT 모드), 게이트웨이 10.0.2.2 (내장 VirtualBox NAT 장치 IP 주소)

VM2

IP : 192.168.23.2 (내부 네트워크 모드), 게이트웨이 192.168.23.1

VM2

IP : 192.168.23.3 (내부 네트워크 모드), 게이트웨이 192.168.23.1

VirtualBox 내부 네트워크 서브넷 192.168.23.0/24

Virtualbox_InternalNetwork

※ 실제 네트워크 인프라에서 방화벽 규칙을 구현하기 전에 IPTABLES에서 방화벽 규칙을 테스트하기 위해 이러한 인프라를 배포 할 수도 있지만 외부네트워크에서 연결할 때 VM1의 두 번째 가상 네트워크 어댑터가 NAT 모드가 아닌 Bridge 모드를 사용하는 것이 좋습니다.

Host-only Adapter

호스트와 guest 간의 통신을 위해 사용됩니다. VM은 Host-only로 연결된 VM과 host에 통신이 가능합니다.

Virtualbox_Hostonly

Host-only network를 사용하기 위해서는 호스트에서 해당 네트워크 어댑터를 생성해 주어야 합니다. File > Host Network Manager.

Virtualbox_hostnetwork

위의 경우 Host-only network의 기본 네트워크 주소는 192.168.56.0/24 이고 호스트 컴퓨터에 있는 가상 네트워크 어댑터의 IP 주소는 192.168.56.1 입니다. 이러한 IP 주소는 수동으로 IP를 편집할 수 있습니다.

추가적으로 DHCP 서버 설정을 활성화/비활성화 할 수 있습니다. DHCP 서버 탭에서는 DHCP의 IP주소, 넷 마스크 및 DHCP 클라이언트에 대해 발급할 IP 주소 범위를 설정할 수 있습니다.

Virtualbox_hostnetworkmanager

※ Host-only mode에서는 외부의 장치에서 호스트 전용 네트워크에 연결할 수 없기 때문에 VM의 가상 네트워크 어댑터에는 IP 구성에 게이트웨이가 없습니다.

Generic Driver

이 모드를 사용하면 일반 네트워크 인터페이스를 공유할 수 있습니다. 사용자는 확장 팩에 배포하거나 VirtualBox에 포함할 적절한 드라이버를 선택할 수 있습니다.

  • UDP Tunnel : 다른 호스트에서 실행되는 가상머신은 기존 네트워크 인프라를 사용하여 투명하게 통신할 수 있습니다.
  • VDE Networking : 가상 머신은 Linux 또는 FreeBSD 호스트의 가상 Distributed Switch에 연결할 수 있습니다. 표준 Virtualbox 패키지에는 이 기능이 포함되어 있지 않으므로 VDE 네트워킹을 사용하려면 Virtualbox 소스에서 컴파일해서 만들어진 프로그램을 사용해야 합니다.

네트워크 모드에 따른 접속 가능 확인

Virtualbox_connectionbymode

Port Forwarding

포트포워딩은 트래픽을 다른 IP 주소 혹은 포트로 리디렉션하는 것 외에도 적절한 IP 주소 및 포트로 주소가 지정된 트래픽을 가로채는 프로세스입니다.

컴퓨터 및 기타 라우터 장치에서 특수 응용프로그램을 사용하여 포트 전달을 구성할 수 있습니다.

포트 포워딩의 가장 일반적인 사용 사례 중 하나는 외부 네트워크에서 NAT 뒤에 숨겨진 특정 네트워크 서비스에 대한 액세스를 제공하는 것입니다. 포트포워딩 규칙을 구성한 후 클라이언트는 라우터 (호스트)의 외부 IP 주소 및 지정된 포트에 연결하여 외부에서 적절한 서비스에 액세스 할 수 있습니다.

패킷은 먼저 라우터의 응용 프로그램에서 가로채고 응용 프로그램은 해당 헤더 (IP 패킷 헤더, TCP 또는 UDP 세그먼트의 헤더)의 대상 IP 주소와 포트 번호를 읽습니다.

헤더의 대상 IP 주소 및 포트 번호 조합이 포트 포워딩 규칙과 일치하는 경우 라우팅 애플리케이션은 헤더 정보 (IP 정보 및 포트 번호)를 다시 쓰고 다른 네트워크 패킷 / 세그먼트로 보냅니다.

포트 포워딩 적용 예시 (SSH 액세스)

호스트 IP : 10.10.10.72 (물리적 NIC)

VM IP : 10.0.2.15 (NAT mode)

사용자 이름 : user1

NAT로 구성된 VM 어댑터에서 Port Forwarding 규칙 설정

VM 클릭 » Settings » Network » Adapter1

Virtualbox_portforwarding

SSH 서버는 기본적으로 22 TCP 포트를 수신합니다.

포트 8022로 들어오는 연결을 VM 22번 포트로 전달 할 수 있는 규칙을 만들면 다음과 같습니다.

Virtualbox_portforwardingrules

※ Host는 host, Guest는 guest

Virtualbox 호스트의 실제 네트워크 어댑터의 실제 IP 주소가 될 유사한 포트 전달 규칙을 만드는 경우 물리적 네트워크의 다른 호스트는 포트 8022에서 Virtualbox 호스트 시스템에 연결하여 SSH를 통해 VM에 액세스 할 수 있습니다.

이 예에서는 Virtualbox 호스트에 있는 물리적 NIC IP 주소는 10.10.10.72 입니다.

Virtualbox_portforwardingrules2

이렇게 되면 Virtualbox 호스트 또는 LAN에 연결된 다른 호스트에서 SSH 클라이언트를 열고 포트 8022에서 Virtualbox 호스트 IP에 연결합니다.

포트 포워딩 적용 예시 (HTTP 액세스)

VM에 웹 서버를 배포하고 외부에서 웹 사이트에 대한 액세스를 제공하려는 경우 다른 포트 전달 규칙을 추가 할 수 있습니다.

Virtualbox 호스트 머신과 물리적 LAN (Local Area Network)에 연결된 다른 머신에서 VM에 배포된 웹 사이트에 액세스하기 위해 해당 포트 전달 규칙을 구성하는 방법을 예로 들면 다음과 같습니다.

먼저 웹 사이트가 정상 접속 되는지 확인한 후에 진행합니다. 웹은 TCP 8080 를 사용합니다.

VM settings > Network > select adapter > Port Forwarding

Virtualbox_portforwardingrules3

RDP, FTP 및 기타 프로토콜을 통해 VM에 액세스하기 위한 규칙을 정의할수도 있습니다.

결론

Virtualbox는 유연하고 다양한 네트워크 설정을 제공하는 강력한 가상화 솔루션입니다.

각 VM은 최대 8개의 가상 네트워크 어댑터를 사용할 수 있으며(단, GUI에서는 4개까지만 설정 가능) 각 네트워크 어댑터는 실제 Intel 및 AMD 네트워크 인터페이스 컨트롤러 (NIC)의 적절한 모델로 에뮬레이션 될 수 있습니다.

Remote-FX : Enable GPU use during RDP mstsc remote connection

원격데스크톱 연결시, Remote-FX 사용하기.

원래 RDP(Remote Desktop Protocol)는 Client Rendering 입니다.

반면, Remote-FX 기술은 Host Rendering입니다.

 

*  컴퓨터에 원격데스크톱 클라이언트 7.1 이상이 있어야함.  (* Win7 Ulti – SP1이상, WinXP SP3이상)

1. 관리자 권한으로 ‘실행’을 실행해주세요.  (*RDP Server 역할에서 설정해야 함.)

2. gpedit.msc를 치고 엔터. (그룹정책편집기 실행)

 

2.  컴퓨터구성 -> 관리 템플린 -> Windows 구성요소
-> 터미널 서비스 -> 원격 데스크톱 세션 호스트 -> 원격 세션 환경으로 갑니다.

3. 원격 세션 환경에 들어가셔서,

모든 원격 데스크톱 서비스 세션에 “하드웨어 그래픽 어탭터 사용”을 “사용”으로 바꿔 줍니다.

> WinXP, 7 : Remote FX 구성을 더블클릭하셔서 사용에 체크하고 확인.
> Win 8 이상 : Enable RemoteFX encoding for RemoteFX clients designed for Windows Server                                2008 R2 SP1 항목 더블클릭 후 사용에 체크하고 확인.

나머지는 읽어 보시면서 필요한걸 사용으로 바꿔주도록 합니다.

“하드웨어 그래픽 사용” 이외 셋팅을 하실땐, 가능하면 옆에 노트북 or 옆에 자리 사람 pc 에서 원격 테스트를 하는게 좋습니다. 귀찮다고 모두 사용으로 바꿔 버리면 아래처럼 진짜 집에서 할때 연결이 안되 낭패를 볼 수 있습니다.

 

제 PC의 셋팅값. 성능을 잡으면서 원격 접속 오류가 안나는 셋팅을 찾는게 중요하고 모르겠으면 하드웨어 그래픽 어댑터 사용만 합니다..

 

다 되었으면  RemoteFX For Windows Server 2008 R2 .. 폴더로 들어갑니다.

4.  Configure RemoteFX (RemoteFX 구성) 을 사용으로 바꿔 줍니다.

 

* RemoteFX를 사용하시려면, 호스트 컴퓨터의 사용자에게도 Remote Desktop User 권한이 주어져       있어야합니다.

1. 관리자권한으로 ‘실행’을 실행해주세요.

2. lusrmgr.msc를 치고 엔터.(로컬사용자편집기)

3. 사용자 폴더에 가셔서, 자신의 계정을 오른쪽클릭 -> 속성

4. 소속 그룹 탭에 가셔서, 밑의 추가버튼을 눌러주세요.

5. 그룹 선택 창에서 고급을 누르시고, 찾기 버튼을 눌러주세요.

6. 그러면 밑에 좌라락 뜨는데요, 거기서 Remote Desktop Users 를 누르시고 확인.

7. 확인 확인 확인 누르시고, 창 닫아주시면 됩니다.

이렇게 다 해주시고, 컴퓨터 다시 껐다가 켜주시면 Remote FX가 활성화 된 상태가 됩니다.

이후 리붓하고 노트북등으로 RDP접속 해 보면 한결 빨라진걸 느낄 수 있습니다.

 

다른 도메인 내 iframe의 세션이 유지가 안될때 ( Same Site )

문 제

A.com 내에 내가만든 B.com/B.jsp 을 iframe 으로 걸었다.

내가 만든 B.com/B.jsp 내의 세션값을 뽑아도 계속 null인 상황이다.

줄곧 크롬으로 테스트 했던터라 IE로 하니까 또 잘된다.

확인한 부분을 정리하면 이렇다.

1. 크롬 개발자 도구로 Response Headers 를 확인 보았다.

2. Set-Cookie 값안에 JSESSIONID 값이 만들어 지는데, 이값이 호출때마다 변경 된다.

자세히 보면 오른쪽에 노란색 느낌표가 떠있고, 마우스를 가져가면, SameSite 관련 부연설명이 나온다.

웹 search를 해보면 SameSite관련 이슈로 A.com -> B.com POST 방식으로

리다이렉트 했을때 기존에 읽어지던 쿠키값을 읽을수 없는케이스가 제일 많은듯 했다.

3. iframe을 걸어놓은 B.com/B.jsp 에서는 session.getAttribute를 통해서 값이 꺼내지지만,

   java servlet 레벨에서 아래와 같이 뽑아도 null 값만 나오게 된다.

request.getSession().getAttribute("String");

원인 – Chrome 80 쿠키 SameSite 정책이 변경 되었다.

– 도메인이 서로 다른 사이트 간 이동을 하는 경우 쿠키 전달 불가

– 기본 SameSite를 Lax로 변경

( 2020년 2월4일 크롬 80버전 부터 변경 !! )

SamteSite 쿠키에 대해

SameSite 쿠키의 정책으로 None, Lax, Strict 세 가지 종류를 선택할 수 있고

동작하는 방식이 다르다고 할수 있다.

None: 

– SameSite 가 탄생하기 전 쿠키와 동작하는 방식

– None으로 설정된 쿠키의 경우 크로스 사이트 요청의 경우에도 항상 전송

– SameSite를 None으로 설정할 경우 쿠키에 암호화된 HTTPS 연결이 필요함을 나타내는

   Secure 속성을 같이 설정해주어야 한다.
– HTTPS 일때만 사용 가능.

Lax: 

Strict에 비해 상대적으로 느슨한 정책입니다. Lax로 설정된 경우, 대체로 서드 파티 쿠키는 전송되지 않지만, 몇 가지 예외적인 요청에는 전송 된다.

Strict: 

– 가장 보수적인 정책.

– Strict로 설정된 쿠키는 크로스 사이트 요청에는 항상 전송않음.

– 즉, 서드 파티 쿠키는 전송되지 않고, 퍼스트 파티 쿠키만 전송 된다

해 결

결론은 크롬의 쿠키 보안정책이 바뀌어서,

기본이 SameSite의 레벨이 NONE에서 LAX 올라갔으니, 다시 NONE으로 내려주면 된다는 것이다.

중요한점은 HTTPS 일때 사용가능하다.

SameSite 설정시에 None 옵션과 Secure를 함께 주도록되어있는데,

이때 Https일때만 사용이 가능하다고 한다.

즉 B.com 의 도메인은 https 호출이 가능해야 한다.

A.com 의 설정을 건드릴 필요없이 iframe이 걸리는 B.com 쪽에 서버 설정을 수정해야 했다.

나는 앞단에 Apache 서버가 있고, WAS 가 따로 있는 상황이었다.

이럴경우는 apache 웹서버에서 설정을 해줄수 있다.

Apache_HOME / conf / httpd.conf

<IfModule headers_module>
        Header edit Set-Cookie ^(.*)$ $1;SameSite=None;Secure;
</IfModule>

값을 넣어주고 apache 재기동을 했다.

다음부터는 호출시 B.com/b.jsp에서도 세션값에서 정상적으로 값이 꺼내지고

Set-Cookie 값안에 JSESSIONID 값 자체가 유지되는 것을 확인 할수 있었다.

구글 공지

https://blog.chromium.org/2019/10/developers-get-ready-for-new.html

참고자료

https://web.dev/samesite-cookies-explained/

https://chromestatus.com/feature/5088147346030592

http://www.gnujava.com/board/article_view.jsp?board_no=37&article_no=8583

https://velog.io/@jsj3282/%EA%B5%AC%EA%B8%80-Chrome-SameSite-%EC%9D%B4%EC%8A%88

[Kubernetes] Understanding how the Calico CNI works

[Kubernetes] Calico CNI 동작원리 이해하기

  • Calico란, 컨테이너, 가상 머신 및 기본 호스트 기반 워크로드를 위한 오픈 소스 네트워킹 및 네트워크 보안 솔루션이다.
  • Kubernetes, OpenShift, Mirantis Kubernetes Engine(MKE), OpenStack 및 베어메탈 서비스를 포함한 광범위한 플랫폼 지원한다.
  • Calico의 eBPF 데이터 플레인을 사용하든 Linux의 표준 네트워킹 파이프라인을 사용하든 Calico는 진정한 클라우드 네이티브 확장성과 함께 놀랍도록 빠른 성능을 제공한다.
  • Calico는 공용 클라우드나 온프레미스, 단일 노드 또는 수천 개의 노드 클러스터에서 실행되는지 여부에 관계없이 개발자와 클러스터 운영자에게 일관된 경험과 기능 세트를 제공한다.

구성 요소 아키텍처(링크)

    • BGP(Border Gateway Protocol): AS 사이에서 이용되는 라우팅 프로토콜. 대규모 네트워크(수천만의 경로 수)에 대응하도록 설계됐다. 그래서 BGP로 동작하는 라우터는 비교적 고가인 제품이 많다.
    • AS(Autonomous System): 하나의 정책을 바탕으로 관리되는 네트워크(자율 시스템)를 말한다. ISP, 엔터프라이즈 기업, 공공기관 같은 조직이 이에 해당하며 인터넷은 이러한 자율 시스템의 집합체이다.여러가지 구성 요소가 많지만, 일단 눈여겨 볼 내용은 Calico가 사용하는 Datastore[1]와 마스터 노드를 포함한 모든 노드들에 존재하는 Calico Pods[2]
      • Felix (필릭스) : 인터페이스 관리, 라우팅 정보 관리, ACL 관리, 상태 체크
      • BIRD (버드): BGP Peer 에 라우팅 정보 전파 및 수신, BGP RR(Route Reflector)
      • Confd : calico global 설정과 BGP 설정 변경 시(트리거) BIRD 에 적용해줌
      • Datastore plugin : calico 설정 정보를 저장하는 곳 – k8s API datastore(kdd) 혹은 etcd 중 선택
      • Calico IPAM plugin : 클러스터 내에서 파드에 할당할 IP 대역
      • calico-kube-controllers : calico 동작 관련 감시(watch)
      • calicoctl : calico 오브젝트를 CRUD 할 수 있다, 즉 datastore 접근 가능

구성 요소 확인하기

  • 데몬셋으로 각 노드에 calico-node 파드가 동작하여, 해당 파드에 birdfelixconfd 등이 동작 + Calico 컨트롤러 파드는 디플로이먼트로 생성
    • Calico의 특징은 BGP를 이용해 각 노드에 할당된 Pod 대역의 정보를 전달한다. 즉, 쿠버네티스 서버뿐만 아니라 물리적인 라우터와도 연동이 가능 하다는 뜻이다. (Flannel의 경우 해당 구성 불가)
    • Calico Pod 안에서 Bird라고 하는 오픈소스 라우팅 데몬 프로그램이 프로세스로 동작하여 각 Node의 Pod 정보가 전파되는 것이다.
    • 이후 Felix라는 컴포넌트가 리눅스 라우터의 라우팅 테이블 및 iptables rule에 전달 받은 정보를 주입하는 형태이다.
    • confd는 변경되는 값을 계속 반영할 수 있도록 트리거 하는 역할이다.

Calico 기본 통신 과정 확인하기

calicoctl 설치

  • 리소스 관리를 위해 Calico CLI를 설치 및 구성

마스터 노드 확인

  • Calico CNI 설치시, 데몬셋이므로 모든 노드에 칼리코 파드가 하나씩 존재하게 된다. (calico-node-*)
  • 칼리코 컨트롤러가 하나 존재하는 것을 확인할 수 있다.
  • calicoctl ipm show 명령어를 통해, IAPM 정보를 확인할 수 있다. 아래 스크린샷에서는 172.16.0.0/16 대역을 해당 쿠버네티스 클러스터에서 사용할 수 있다는 내용을 알 수 있다.

    • IPAM(IP Address Management): 풍부한 사용자 환경을 통해 IP 주소 인프라의 엔드 투 엔드 계획, 배포, 관리 및 모니터링을 지원하는 통합 도구 모음이다.
      IPAM은 네트워크상의 IP 주소 인프라 서버 및 DNS(도메인 이름 시스템) 서버를 자동으로 검색하여 중앙 인터페이스에서 이들 서버를 관리할 수 있다.
    • 옵션을 통해 아래와 같이 특정한 노드에 할당 가능한 대역대를 확인할 수도 있음(Block는 각 노드에 할당된 Pod CIDR 정보를 나타냄)
  • calicoctl node 정보 확인
  • ippool 정보 확인
  • 파드와 서비스 사용 네트워크 대역 정보 확인

실습 1.

동일 노드 내 파드 간 통신

  • 결론: 동일 노드 내의 파드 간 통신은 내부에서 직접 통신됨

파드 생성 전 노드(k8s-w1)의 기본 상태

노드(k8s-w1)에 파드 2개 생성

  • 아래 내용으로 node1-pod2.yaml 파일 작성 후 파드 생성
  • 파드 생성 전후의 변화를 관찰하기 위해 터미널 하단 추가 탭에watch calicoctl get workloadEndpoint 명령어를 사용하여 모니터링
    • calicoctl 명령어로 endpoint 확인: veth 정보도 확인할 수 있음

생성된 파드 정보 확인

네트워크 인터페이스 정보 확인(k8s-w1)

  • calice#~ 두개 추가된 것을 확인할 수 있음
  • 각각 net ns 0,1로 호스트와 구별되는 것을 확인할 수 있음

네트워크 네임스페이스 확인

  • 아래 2개 PAUSE 컨테이너가 각각 파드별로 생성된 것을 확인할 수 있음
  • 바로 위 스크린샷인 link-netnsid 0, link-netnsid 1과 매칭됨

라우팅 테이블 확인

  • 파드의 IP/32bit 호스트 라우팅 대역이 라우팅 테이블에 추가된 것을 확인할 수 있음

파드간 통신 실행 이해

  • (위) 마스터 노드에서 Pod1 Shell에 접근하여 Pod2로 Ping 테스트
  • (아래) 워커 노드(k8s-w1)에서 iptables 필터 테이블에 FORWARD 리스트 중 cali-FORWARD 룰 정보를 필터링해서 watch로 확인
  • 테스트 결과 아래 이미지와 같이 Host iptables에서 FOWRARD라는 테이블의 허용 조건에 따라 정상적으로 통신이 가능한 것을 확인할 수 있다.

파드에서 외부(인터넷)로의 통신

  • 결론: 파드에서 외부(인터넷) 통신 시에는 해당 노드의 네트워크 인터페이스 IP 주소로 MASQUERADE(출발지 IP가 변경) 되어서 외부에 연결됨

파드 배포 전 calico 설정 정보 확인 & 노드에 iptables 확인

  • 마스터 노드에서 아래 내용 확인: natOutgoing의 기본값이 true로 설정되어 있는 것을 확인 할 수 있다. 즉 이 노드에서 외부로 통신할 때 NAT의 MASQUERADE를 사용하겠다는 의미이다.

    NAT – MASQUERADE : 조건에 일치하는 패킷의 출발지 주소를 변환하는 것. 내부에서 전달되는 요청의 출발지 주소를 조건에 지정된 인터페이스의 IP로 변환한다.

  • 워커 노드(k8s-w1)에서도 외부로 통신시 MASQUERADE 동작 Rule이 존재하는 것을 확인할 수 있다.

마스터 노드에서 워커 노드(k8s-w1)에 아래 내용의 파드 1개 생성

외부 통신 가능 여부 확인

  • 통신 전, 워커 노드(k8s-w1)에 iptables NAT MASQUERADE 모니터링을 활성화 하면 외부 통신시 pkts값이 증가하는지 확인할 수 있다.
  • (위) 마스터 노드에서 Pod1 Shell 실행 후, 8.8.8.8로의 통신 성공
  • (아래) pkts 값이 이전 이미지와 다르게 증가한 것을 확인할 수 있다.

다른 노드에서 파드 간 통신

  • 결론: 다른 노드 환경에서 파드 간 통신시에는 IPIP터널(기본값) 모드를 통해서 이루어진다.
    • 각 노드에 파드 네트워크 대역은 Bird에 의해서 BGP로 광고 전파/전달 되며, Felix에 의해서 호스트의 라우팅 테이블에 자동으로 추가/삭제 된다.
    • 다른 노드 간의 파드 통신은 tunl0 인터페이스를 통해 IP 헤더에 감싸져서 상대측 노드로 도달 후 tunl0 인터페이스에서 Outer 헤더를 제거하고 내부 파드와 통신한다.

파드 배포 전, 노드에서 BGP에 의해 전달 받은 정보가 호스트 라우팅 테이블에 존재하는지 확인

  • 아래 명령어를 통해 나머지 노드들의 파드 대역을 자신의 호스트 라우팅 테이블에 가지고 있고, 해당 경로는 tunl0 인터페이스로 보내게 된다는 사실을 알 수 있다.

워커 노드(k8s-w1, w2)의 tunl0 정보 확인

  • 터널 인터페이스가 IP에 할당되어 있음
  • MTU는 1480 (칼리코 사용 시 파드의 인터페이스도 기본 MTU 1480 사용)
  • 현재 TX/RX 카운트는 0 –> 잠시 후, 오버레이 통신시 카운트 값이 증가할 것

마스터 노드에서 워커 노드(k8s-w1, w2) 대상으로 각각 파드 1개씩 생성

  • calicoctl 명령어를 이용하여 생성된 파드의 엔드포인트 확인

각 노드에서 파드 간 통신을 처리하는 라우팅 정보 확인

  • k8s-w1(172.16.158.4/32) 노드에서 w2(172.16.184.0) 노드 대역에 통신하려면 192.168.10.102를 거쳐야 한다는 것을 확인할 수 있다.
  • 반대로 w2(172.16.184.1/32) 노드에서 w1(172.16.158.0) 노드 대역에 통신하려면 192.168.10.101를 거쳐야 한다.

다른 노드 파드 간 통신이 어떻게 실행되는지 확인 ⇒ IPIP

  • (상) Pod2가 속한 노드(k8s-w2)에 tunl0 인터페이스 TX/RX 패킷 카운트 모니터링 세팅
  • (중) 마스터 노드에서 Pod1 Shell 접속 후, Pod2로 Ping 통신 테스트 준비
  • (하) Pod1이 속한 노드(k8s-w1)에서 패킷 덤프 세팅: tunl0 – 터널 인터페이스에 파드간 IP 패킷 정보를 확인할 수 있음
  • 결과
    • (중) Pod1 –> Pod2로 정상 통신 확인
    • (상) tunl0 인터페이스의 TX/RX 패킷 카운트가 각각 10개로 증가
    • (하) 실제 통신을 하게 되는 파드 간 IP 패킷 정보 확인
  • 실제로 오버레이 통신을 하고 있는지 확인하기 위해 패킷덤프 명령어를 아래와 같이 수정하여 Ping 통신을 다시 하였고, 결과적으로 IP Outer(파란색 박스) 헤더 정보 안쪽에 Inner(빨간색 박스) 헤더가 1개 더 있음을 확인할 수 있다.

Calico 네트워크 모드

Calico Mode 요약

  • 칼리코는 다양한 네트워크 통신 방법을 제공한다.

IPIP 모드

  • 파드 간 통신이 노드와 노드 구간에서는 IPIP 인캡슐레이션을 통해 이루어진다.
  • 단, Azure 네트워크에서는 IPIP 통신이 불가능하기 때문에 대신 VXLAN 모드를 사용한다고 한다.

Direct 모드

  • 파드 통신 패킷이 출발지 노드의 라우팅 정보를 보고 목적지 노드로 원본 패킷 그대로 전달된다.
  • 단, 클라우드 사업자 네트워크 사용 시, NIC에 매칭되지 않는 IP 패킷은 차단되니 NIC의 Source/Destination Check 기능을 Disable해야 정상 통신 가능 (AWS 문서 링크)

BGP 연동

  • Kubernetes 클러스터 내부 네트워크와 IDC 내부망 네트워크 간 직접 라우팅도 가능

VXLAN 모드

  • 파드 간 통신이 노드와 노드 구간에서는 VXLAN 인캡슐레이션을 통해서 이루어진다.
  • 다른 노드 간의 파드 통신은 vxlan 인터페이스를 통해 L2 프레임이 UDP – VXLAN에 감싸져 상대 노드로 도달 후 vxlan 인터페이스에서 Outer헤더를 제거하고 내부의 파드와 통신하게 된다.
  • BGP 미사용, VXLAN L3 라우팅을 통해서 동작한다.
  • UDP를 사용하므로 Azure 네트워크에서도 사용 가능하다.

Pod 패킷 암호화(네트워크 레벨)

  • Calico의 다양한 네트워크 모드 환경 위에서 WireGuard 터널을 자동 생성 및 파드 트래픽을 암호화하여 노드 간 전달한다.
  • Yaml 파일에 간단하게 추가하는 것만으로도 네트워크 레벨의 패킷 암호화를 설정할 수 있다.
  • WireGuard는 구닥다리 IPsec 및 OpenVPN의 대항마로 등장한 open source VPN project이며 작년, Linux 5.6 커널에 WireGuard 1.0.0 기본 패키지로 탑재되었다.
  • 정말 간결한 코드 구조와 빠른 성능 (모든 것이 kernel에서 동작하고, 주요 암호 알고리즘에 대해서 병렬처리하므로써 빠른 속도를 자랑함)

실습 2. WireGuard

WireGuard 설정

  • 모든 노드에 WireGuard를 설치(apt install wireguard -y)하고, Enabled 설정
  • 현재 노드에 존재하는 Wireguard 퍼블릭 키 확인
  • wireguard.cali 인터페이스 정보 확인
  • wg로 시작하는 명령어를 사용하여 wireguard.cali 설정 확인: 노드 별로 각각의 상대방 Peer의 IP와 퍼블릭 키를 확인할 수 있음

동작 확인

  • 아래 내용으로 파드 생성
  • (상) 파드가 생성된 노드의 eth0(enp0s8)에서 패킷 덤프 모니터링 세팅
  • (하) 생성한 파드 Shell 접속 후 Ping 통신 준비
  • (하) Pod2 IP 확인
  • (중) Pod1 –> Pod2 Ping 정상 통신
  • (상) 51820 포트 패킷 덤프 내용 확인