Rook-Ceph Kubernetes 클러스터 구축 및 데이터 저장 방법
·
🔹Storage
작성중! 미완✅ 클러스터 구성Master 노드1대Kubernetes Control Plane (CephFS 마운트)Worker 노드3대Pod 실행Storage 노드3대 Rook-Ceph 배포 (MON, OSD, MGR, MDS 실행) Network 노드3대네트워크 트래픽 관리 및 Ingress, LoadBalancer 역할 📌 목표:Storage 3대에 Rook-Ceph를 배포하여 Ceph 클러스터 구성Master 노드는 CephFS를 직접 마운트하여 사용PersistentVolume(PV), PersistentVolumeClaim(PVC), StorageClass 구성📌 전제조건:storage server ceph cluster 완료🔁 1. Rook-Ceph 설치 및 Ceph 클러스터 구성✅ 1...
Linux 데이터 저장 방식 비교: 특징과 사용 사례
·
🔹Storage
이 글은 데이터 저장 방식의 주요 유형을 정리한 표입니다. 각 저장 방식의 특징, 사용 사례, 그리고 대표적인 예시를 통해 스토리지의 개념을 쉽게 이해할 수 있습니다.클라우드, 데이터베이스, 분산 시스템 등 다양한 분야에서 활용되는 저장 기술을 정리해보았습니다. 저장 방식특징사용 사례예시파일 시스템파일/디렉토리 구조일반 파일 관리NTFS, ext4데이터베이스구조화된 데이터 관리웹 애플리케이션, 분석 데이터MySQL, MongoDB객체 스토리지객체 기반 데이터 저장클라우드 데이터, 대용량 파일 관리Amazon S3, MinIO블록 스토리지블록 단위 데이터 저장데이터베이스, 고성능 시스템AWS EBS, iSCSI분산 스토리지데이터 분산 저장빅데이터 처리, 클라우드 시스템HDFS, Ceph테이프 저장소순차적 ..
[Ceph 18.2.0] Rocky 9.4 version 설치
·
🔹Storage
os: rocky 9.4ceph: 18.2.0 version참고 링크: https://kifarunix.com/how-to-deploy-ceph-storage-cluster-on-rocky-linux/kernel version 최신화# uname -r5.14.0-427.24.1.el9_4.x86_64 아래 명령으로 ceph 기본 설정 및 확인CEPH_RELEASE=18.2.0curl -sLO https://download.ceph.com/rpm-${CEPH_RELEASE}/el9/noarch/cephadmchmod +x ./cephadm./cephadm add-repo --release reef./cephadm installwhich cephadm bootstrap 설정cephadm bootstrap -..
stress 명령어 사용법
·
🔹Storage
TestCase 만들기패키지 설치yum -y install epel-releaseyum -y install iputils-pingyum -y install stressyum -y install cpulimityum -y install pstreecpu 부하명령stress --cpu 1 --io 1 --vm 2 --vm-bytes 5G --hdd 4 --hdd-bytes 16 --timeout 600s현재 free memory의 90%를 사용하는 방법stress --vm-bytes $(awk '/MemAvailable/{printf "%d\n", $2 * 0.98;}' hdd 부하 주기stress --hdd 1 --hdd-bytes 1024m --timeout 60s
RADOS Object 레벨 스토리지 명령어
·
🔹Storage
Ceph 클러스터의 RADOS 객체 스토리지와 상호작용 하기 위한 명령어객체 확인 명령어객체 생성:rados -p put /path/to/local/file객체 읽기:rados -p get 객체 삭제rados -p rm 객체 목록 표시rados -p ls객체 정보 표시rados -p stat 풀 정보 표시:rados df풀 내부 데이터 크기 확인rados -p du
[Ceph] RADOS Block Device 명령어
·
🔹Storage
RBD: Ceph 의 블록 레벨 스토리지 시스템2장. Ceph 블록 장치 Red Hat Ceph Storage 5 | Red Hat Customer Portal이미지 생성: 새로운 RBD 이미지를 생성합니다.rbd create --size rbd create mypool/myimage --size 10G이미지 정보 확인: 이미지의 정보를 출력합니다.rbd info rbd info mypool/myimage이미지 리사이즈: 이미지 크기를 변경합니다.rbd resize --size rbd resize mypool/myimage --size 20G이미지 복사: 이미지를 다른 이미지로 복사합니다.rbd cp rbd cp mypool/myimage mypool/myimage_copy이미지 삭제rbd rm ..
Ceph 상태 확인 명령어
·
🔹Storage
한 줄씩 쳐보시길 바랍니다ceph -s # ceph 상태 확인ceph health detail # ceph cluster 상태 확인ceph orch ps --refreshceph -w # Ceph Cluster 상태 실시간 확인ceph df # cluster 사용량 확인ceph df detail # ceph cluster 사용량 확인ceph pg dump # pg 상태 확인ceph mon dump # ceph monitor 상태 확인ceph mgr dump # ceph manager 상태 확인ceph osd dump # ceph osd 상태 확인ceph osd tree # osd map 정보 tree 형식으로 출력ceph osd df # osd별 사용량 확인ceph osd pool ls # osd poo..
[Ceph] Storage Cluster 초기화 방법
·
🔹Storage
ceph version : 17.2.6 1. OSD 삭제# osd 상태 확인 명령어ceph osd statusceph orch ps --daemon_type osd --refresh# Alias 설정TARGET_OSD_ID="0" #EXAMPLE (ceph osd status 에서 ID 값 입력)TARGET_HOST_NAME=$(ceph orch ps --daemon_type osd --format json| jq -r '.[] | select(.daemon_id == '\""$TARGET_OSD_ID"\"') | .hostname')TARGET_DAEMON_NAME=$(ceph orch ps --daemon_type osd --format json | jq -r '.[] | select(.daemon_..