분류 전체보기 790

EKS ALB controller에서 gateway API 사용하는 방법

이 글에서는 EKS환경에서 ALB Controller를 사용하여 Gateway API를 사용하는 방법을 다룹니다. AWS EKS에서 Gateway API를 사용하려면 2025년 12월 기준으로 VPC Lattice만 stable이며, ALB Controller는 실험 단계입니다. 목차ALB controller의 Gateway APIALB controller가 Gateway API를 사용하려면?실습 ALB controller의 Gateway APIEKS 환경에서 Gateway API를 사용하려면 2025년 12월 기준으로 VPC Lattice만 stable입니다. AWS ALC 또는 ALB Controller는 실험 단계입니다. 제가 ALB Controller로 Gateway API를 사용해보니 설정이 ..

Kubernetes Gateway API 간단히 알아보기

이 글은 kubernetes Gateway API의 개념을 간단히 살펴보고 envoy gateway quickstart를 사용하여 gateway API를 실습합니다. 목차개발 중단된 ingressIngress 개발을 중단하고 Gateway API를 만든 이유는?설정 방법누가 또는 어떤 pod가 Gateway API 작업을 수행할 것인가 gateway controller?어떤 요청을 받을 것인가?요청을 받으면 어떤 pod로 라우팅할 것인가?예제 개발 중단된 ingressKubernetes ingress는 개발이 중단되고 신규 기능은 Gateway API에서 진행됩니다. 하지만 ingress가 없어진다는 의미는 아닙니다.참고: https://kubernetes.io/docs/concepts/services-..

eBPF와 함께하는 Cilium 핸즈온: Pod부터 Service 통신까지

요약안녕하세요! 악분입니다. 이 글은 Cilium을 처음 접하는 사용자를 위한 핸즈온입니다. 핸즈온이란 직접 실습하면서 동작원리를 이해하고 디버깅하는 과정을 말합니다. Cilium 설치부터 Pod 통신, Service 통신, Observability까지 예제를 준비했습니다. 특히 eBPF를 기반으로 한 Cilium의 네트워크 작동 원리와 IPAM, 라우팅, 터널 모드를 이해할 수 있도록 예제를 만들었습니다. eBPF에 대한 내용은 이전 저의 블로그를 참고하면 좋습니다.- eBPF 링크: https://malwareanalysis.tistory.com/885 공식문서로 이해하는 eBPF 입문안녕하세요. 악분입니다! 이 글은 eBPF 공식문서 중 "What is eBPF" 문서를 간단히 이해하는 것이 목표입..

공식문서로 이해하는 eBPF 입문

안녕하세요. 악분입니다! 이 글은 eBPF 공식문서 중 "What is eBPF" 문서를 간단히 이해하는 것이 목표입니다.eBPF 문서: https://ebpf.io/ko-kr/what-is-ebpf What is eBPF? An Introduction and Deep Dive into the eBPF TechnologyA detailed step by step introduction to the eBPF technology with lots of references for further reading.ebpf.io eBPF 실습을 원하시는 분은 아래 글을 읽어보시는 것을 추천드립니다.From Zero to Your First eBPF Program 글: https://labs.iximiuz.com/t..

React server component 취약점 간단히 분석 - CVE-2025-55182, CVE-2025-66478

개요2025년 12월 첫째 주에 위험한 취약점이 공개되었습니다. 취약한 React Server Component를 사용하는 서버는 공격자가 인증 없이 원격으로 명령어를 실행할 수 있습니다. 이를 통해 공격자는 서버에서 원하는 명령어를 실행할 수 있습니다.취약점 식별번호: CVE-2025-55182, CVE-2025-66478 취약점 원리취약점 원리는 아래 문서에 아주 자세히 설명하고 있습니다. 문서를 읽기 위해 자바스크립트와 React의 이해가 많이 필요합니다.https://www.enki.co.kr/media-center/blog/complete-analysis-of-the-react2shell-cve-2025-55182-vulnerability 제가 이해한 바로는 취약점은 3가지 포인트를 공격에 활용..

EKS ArgoCD Capabilities

2025년 12월 AWS re:invent가 다가오면서 EKS의 기능도 한개씩 공개되고 있습니다. 제일 처음 눈길이 가는 기능은 EKS Capabilities였습니다. EKS Capabilities는 무슨 목적으로 만들었을까?한국말로 번역하면 EKS 기능인데 이름만 들었을때는 무슨 목적으로 만들었는지 처음에 감이 안왔습니다. 그러다가 AWS 블로그의 설명을 보고 어떤 목적으로 EKS Capabilities를 만들었는지 이해가 되었습니다. EKS를 운영하기 위한 인프라 솔루션을 AWS가 직접관리하는 목적으로 이해했습니다. 예를 들면 ArgoCD가 대표적인 운영을 위한 인프라 솔루션입니다. ArgoCD는 gitops방식으로 git에 있는 코드를 kubernetes에 배포하는 도구입니다. ArgoCD는 사용..

스터디에서 만난 인연과 팟캐스트한 후기

2021년, 인프런 스터디에서 백엔드 엔지니어인 지인 A를 우연히 만났습니다. 이후 2025년 11월에 다시 만나 팟캐스트를 진행했습니다. 스터디에 대한 이야기를 10분 기술에 대한 이야기를 40분정도 했습니다. 장소는 스터디룸을 빌렸습니다. [스터디와 지인의 이야기 파트]지인 A를 알게 된 지 어느덧 4년이 흘렀지만, 당시 스터디에서 그가 얼마나 진지하고 열정적으로 참여했는지 여전히 생생하게 기억납니다.당시 지인은 미래에도 현재 업무를 할 수 있을지 고민한 끝에, 미래가 불투명하다고 판단하여 백엔드 공부를 시작했습니다. 당장 일을 그만두면 생계가 어려워지는 상황이었음에도, 취업 준비에 전념하기 위해 과감히 퇴사를 결심한 점이 매우 인상 깊었습니다. 다행히 스터디 경험이 취업에 큰 도움이 되었다고 합니다..

크기가 큰 csv파일을 리눅스 명령어로 여러 파일로 분할시키는 방법

개요이 글은 AI 모델 학습용 데이터셋이나 데이터베이스 마이그레이션용 데이터처럼 용량이 큰 CSV 파일을, 리눅스 명령어로 여러 csv 파일로 분할하는 방법을 설명합니다. 사용방법GNU Core Utilities (Coreutils)의 split명령어는 입력 파일을 여러 조각으로 나눕니다. 예를 들어 약 1800만개 줄이 있는 csv파일이 있다고 가정해봅시다. split명령어로 이 큰 파일을 700000줄씩 쪼개서 파일을 생성할 수 있습니다.split -l 700000 lineitem.tbl lineitem_ 파일 확장자 생성하는 방법split이 생성한 파일은 파일 확장자가 없는데, 간단히 for문과 mv명령어로 파일 확장자를 추가할 수 있습니다.split -l 5000000 lineitem.tbl li..

RDS S3 Import/export

개요안녕하세요. 이 글은 AWS RDS S3 import/export 기능을 설명하고 import 성능 테스트한 결과를 공유합니다. 영상: https://youtu.be/529IkbRXI70 S3 import/export란?RDS S3 import/export는 RDS 데이터를 S3로 내보내거나, S3 데이터를 RDS로 가져오는 기능입니다. RDS가 S3에 접근하려면 IAM role 연결 설정이 필요합니다. 이 글에서는 Aurora mysql, Aurora postgres를 대상으로 실습을 진행했습니다. 언제 S3 import/export를 쓰면 좋을까?S3에 데이터를 저장하고 활용해야 할 때 S3 import/export를 사용하면 좋습니다. 예를 들어 RDS snapshot 대신 일부 데이터를 주기..

데이터베이스 성능 벤치마크할때 사용하기 좋은 TPC-H

TPC-H 벤치마크란?RDS의 s3 import/export 성능을 어떻게 평가할까 생각하다가 우연히 AWS블로그 글을 마주쳤습니다. AWS블로그에서는 TPC-H라는 벤치마크를 통해 성능테스트를 진행했습니다.- AWS 블로그: https://aws.amazon.com/ko/blogs/database/best-practices-for-exporting-and-importing-data-from-amazon-aurora-mysql-to-amazon-s3/ TPC-H 벤치마크는 TPC라는 비영리단체에서 만든 규격입니다. TPC(Transaction Processing Performance Council)는 1988년에 설립된 비영리 단체로, 데이터베이스 성능 평가 기준의 규격을 정의합니다. 8개의 테이블과 ..