Claude Code 보안 심층 분석 ④ — 통제와 한계: 클라이언트 영역의 현실

Claude Code의 보안 통제 수단은 managed-settings.json(엔터프라이즈 정책), 네트워크 차단, SSO 강제, 파일 접근 제한, 샌드박스 격리, Git/CI 기반 통제의 6가지가 있으나, 클라이언트 측 도구라는 본질적 한계로 100% 강제는 불가능하다. 각 수단은 관리형 기기/BYOD/외부망 환경에 따라 효과가 달라지며, Git/CI 통제가 환경에 관계없이 가장 일관되게 효과적이다. 현실적 전략은 예방·탐지·정책·교육의 다층 방어이며, 환경의 보안 요구도에 따라 차등 적용해야 한다.

Claude Code 보안 심층 분석 ③ — 탐지 전략: 파일시스템에서 네트워크까지

Claude Code 탐지는 파일시스템(.claude/ 디렉토리, history.jsonl, credentials), 네트워크(api.anthropic.com, Statsig, Sentry), 프로세스(claude CLI, MCP 서버), Git(co-authored-by Claude, .claude/ 설정 변경) 네 계층으로 접근한다. 우선순위는 API 인증 파일과 네트워크 트래픽이 긴급, hooks/MCP 설정 검증이 높음, PR 리뷰 자동화와 커밋 추적이 중간이다. 설정 파일의 존재 여부뿐 아니라 내용 검증(hooks 악성 명령, MCP 미승인 서버, ANTHROPIC_BASE_URL 변조)까지 수행해야 한다.

Claude Code 보안 심층 분석 ② — 어디서 무엇이 새는가: 위협과 공격 표면

Claude Code의 보안 위협은 API를 통한 소스코드 유출, ANTHROPIC_BASE_URL 변조를 통한 API 키 탈취(CVE-2026-21852), Hooks/MCP 설정을 통한 원격 코드 실행(CVE-2025-59356), 간접 프롬프트 인젝션, MCP 신뢰 체인을 통한 측면 이동 등으로 구성된다. 이 위협들은 Claude Code의 정상적 기능을 악용하며, 설정 파일이 능동적 실행 경로를 제어하는 구조적 특성에서 기인한다.

Claude Code 보안 심층 분석 ① — 왜 지금 이야기해야 하는가

Claude Code는 개발자와 동일한 시스템 권한으로 동작하는 AI 에이전트로, 데이터 유출, 공급망 공격, 프롬프트 인젝션, MCP 신뢰 체인 문제, AI 생성 코드 품질 등 다섯 가지 보안 위협 영역을 형성한다. 클라이언트 측 도구라는 구조적 특성으로 인해 완벽한 통제가 불가능하므로, 탐지·정책·교육을 조합한 다층 방어 전략이 필요하다.

Claude Code .claude 디렉토리 완전 정복: 전체 구조와 역할 총정리

Claude Code의 .claude 디렉토리는 글로벌(~/.claude/)과 프로젝트(.claude/) 두 레벨로 나뉘며, CLAUDE.md(지침), settings.json(설정), commands·agents·skills·hooks·rules(확장), projects·file-history·todos(런타임 데이터)로 구성된다. ~/.claude.json과 .mcp.json은 디렉토리 밖에 별도로 존재하며, 엔터프라이즈 관리형 설정은 OS별 시스템 경로에 배포된다. 설정 우선순위는 엔터프라이즈 > 로컬 > 공유 > 글로벌 순이다.

AI 보안 하네스 – 구축과 운영

AI 보안 하네스의 실제 구축과 운영 가이드. Phase별 로드맵 4단계(Phase 1: 가시성 & 정책 1~2개월, Phase 2: 코어 파이프라인 2~4개월, Phase 3: 에이전트 보안 4~6개월, Phase 4: 지속 운영 상시)의 구체적 활동과 산출물. Level 1~4별 최소 구성과 풀 구성 매핑. 핵심 KPI 8개(AI 자산 가시성·Shadow AI 비율·정책 현행화율·가드레일 오탐률·미탐률·HITL 응답 시간·인시던트 대응 시간·엔트로피 점수). 흔한 실패 패턴 5가지와 대응(“완벽 준비 후 시작”·”보안팀 단독”·”도구만 도입”·”Level 4부터”·”구축하고 끝”). 시리즈 전체 메시지 3가지를 다룬 시리즈 마지막 글.

AI 보안 하네스 – 지속 적응

AI 보안 하네스의 진화 계층 상세. 하네스가 “한 번 구축하고 끝”이 될 수 없는 5가지 이유(모델 변화·공격 변화·규제 변화·비즈니스 변화·자연적 노후화). 가드레일 효과성 측정의 3대 지표(거부율·오탐률·미탐률)와 지표의 함정. 모델 업데이트 대응 5단계 절차(골든 테스트→가드레일 재검증→시스템 프롬프트 검증→카나리 배포→롤백 준비). 위협 인텔리전스 소스와 가드레일 반영 파이프라인. AI Red Team 테스트 운영(시나리오 구성·자동화/수동 조합·결과 처리). 엔트로피 관리(정기 감사·Configuration as Code·유효성 검증 자동화). 진화 계층 성숙도 자가진단(레벨 0~4)을 다룬 시리즈 일곱 번째 글.

AI 보안 하네스 – 실행과 출력 보안

AI 보안 하네스 코어 파이프라인의 실행·출력 측 레이어 상세. 오케스트레이션에서는 에이전트의 계획-실행-관찰 루프, HITL 설계의 4단계 영역(자동 승인·사용자 확인·관리자 승인·이중 승인), HITL 피로 방지, 에이전트 신뢰도 기반 동적 HITL, 명령 체계 우선순위, 서킷 브레이커를 다룸. 도구 격리에서는 보안 경계 5단계 패턴(경계 없음→완전 격리), 시크릿 인젝션 프록시 상세 작동 방식, 도구 화이트리스트(읽기·쓰기·실행), 입출력 스키마 검증을 다룸. 출력 가드레일에서는 출력 검사가 필요한 3가지 이유, 민감정보 탐지 & 마스킹, 환각 탐지, AI 생성 코드 보안 검증을 다룬 시리즈 여섯 번째 글.

AI 보안 하네스 – 입력 보안

AI 보안 하네스 코어 파이프라인의 입력 측 레이어 상세. AI Gateway에서는 API Gateway와의 근본적 차이(프롬프트 수준 정책 집행), 5대 핵심 기능(프롬프트 정책·모델 라우팅·테넌트 격리·비용 관리·감사), 3가지 구현 접근법을 다룸. 입력 가드레일에서는 프롬프트 인젝션이 근절 불가능한 이유, 직접/간접 인젝션의 차이, 3단계 방어 전략(결정론적 필터링·시맨틱 분석·컨텍스트 격리), 간접 인젝션 추가 방어(듀얼 LLM 패턴)를 다룸. 컨텍스트 보안에서는 임베딩 포이즈닝, 정책 인식 검색(Pre-filtering vs Post-filtering), 출처 검증, 컨텍스트 윈도우 보안을 다룬 시리즈 다섯 번째 글.

AI 보안 하네스 – 기반 보안

AI 보안 하네스의 기반 계층 상세. ID & 접근제어에서는 에이전트를 “위임받은 자율 행위자”로 정의하고, 에이전트 서비스 ID·추적 가능 자격증명·컨텍스트별 동적 권한(ABAC)·제로 트러스트 적용을 다룸. 데이터 보호에서는 AI가 만드는 3가지 새로운 유출 경로(프롬프트 경유·학습 데이터 재생성·에이전트 경유), 4단계 데이터 분류의 기술적 매핑, 학습 데이터 살균, AI 시대의 DLP 확장을 다룸. 공급망 보안에서는 AI 공급망의 차별점(모델·데이터셋·AI 프레임워크), 모델 출처 검증 4단계, AI SBOM, 의존성 스캐닝 확장을 다룬 시리즈 네 번째 글.

AI 보안 하네스 – 거버넌스와 가시성

AI 보안 하네스의 횡단 계층 상세. 거버넌스 & 정책에서는 합의선(Agreement Line) 설계, AI 사용 정책의 4대 구성요소(승인 도구 목록·데이터 분류별 허용 범위·Level별 배포 기준·금지 행위), AI 보안 위원회 구성, AI 특화 인시던트 시나리오 4가지(프롬프트 인젝션 성공·데이터 유출·에이전트 폭주·모델 타협), 규제 대응을 다룸. 관찰 가능성 & 감사에서는 의미론적 로깅, 민감정보 마스킹 딜레마, Shadow AI 탐지, 모델 드리프트 탐지, SIEM 연동, 감사 추적을 다룬 시리즈 세 번째 글.

AI 보안 하네스 – 아키텍처 전체 그림

AI 보안 하네스의 4개 영역(횡단·기반·코어 파이프라인·진화)과 10개 레이어 아키텍처 전체 구성도. 각 영역의 역할과 성격, 10개 레이어의 요약, Level 1~4별 활성 레이어 매핑, Level 3 기준 데이터 흐름 8단계 추적, 아키텍처의 실무적 함의를 다룬 시리즈 두 번째 글.

AI 보안 하네스 – 정의와 설계 원칙

AI 보안 하네스의 정의, “하네스” 비유의 의미, 유사 개념(가드레일·AI Gateway·Agent Framework)과의 차이, 5대 설계 원칙(자율성 비례 통제·허용과 통제의 양면 설계·계층 방어·기존 인프라 위 구축·지속 적응), Level 1~4 자율성 등급 모델, 기존 보안 표준(OWASP·NIST·MITRE ATLAS·SANS·EU AI Act)과의 관계를 다룬 시리즈 첫 번째 글.

Answer Docker 설치 가이드: Q&A 커뮤니티 플랫폼

Answer는 Apache 재단의 오픈소스 Q&A 플랫폼입니다. Stack Overflow 스타일의 질문/답변, 투표, 채택, 평판 시스템을 제공하며, Docker로 간단히 설치할 수 있습니다. 제품 헬프센터, 사내 지식 베이스, 커뮤니티에 적합합니다.

Claude의 네 가지 얼굴: Chat · Cowork · Code · CLI — 언제 뭘 써야 할까

Claude 데스크톱 앱의 세 가지 모드(Chat, Cowork, Code)와 CLI 버전의 차이점을 비교하고, 각 모드의 기능, 강점, 한계를 분석합니다. Skills, MCP, Plugins, Hooks 등 확장 생태계의 모드별 지원 현황과 도입 순서를 정리하고, 모드별 기능 비교표, 실전 워크플로우 예시, 활용 팁을 제공하여 상황에 맞는 최적의 모드를 선택할 수 있도록 안내합니다.

Mem0 Docker 설치 가이드: LLM 메모리 레이어

Mem0는 AI 에이전트를 위한 범용 메모리 레이어입니다. 대화에서 핵심 정보를 자동 추출하고, 벡터 + 그래프 하이브리드 저장으로 의미 기반 검색을 제공합니다. 토큰 90% 절감, 지연 91% 감소를 달성하며, OpenMemory MCP로 Claude Desktop과 연동할 수 있습니다.

Khoj Docker 설치 가이드: AI 세컨드 브레인

Khoj는 AI 세컨드 브레인으로, 웹과 문서에서 답변을 얻고, 커스텀 에이전트를 만들고, 자동화를 스케줄하고, 딥 리서치를 수행하는 개인 AI 어시스턴트입니다. OpenAI, Claude, Ollama 등 모든 LLM을 지원하며, Obsidian, WhatsApp 등 다양한 클라이언트에서 접근할 수 있습니다.

AnythingLLM Docker 설치 가이드: 올인원 문서 AI 플랫폼

AnythingLLM은 문서와 대화할 수 있는 올인원 AI 애플리케이션입니다. PDF, Word, 웹페이지 등 모든 문서를 업로드하면 AI가 내용을 이해하고 질문에 답변합니다. 내장 LanceDB로 별도 설정 없이 RAG를 사용할 수 있으며, Ollama, OpenAI, Claude 등 모든 LLM을 지원합니다. 멀티 유저, AI 에이전트, 임베드 위젯 등 풍부한 기능을 제공합니다.

Perplexica Docker 설치 가이드: AI 검색 엔진 (Perplexity 대안)

Perplexica는 Perplexity AI의 오픈소스 대안으로, 프라이버시 중심의 AI 검색 엔진입니다. 질문을 이해하고 웹을 검색하여 출처가 인용된 답변을 제공합니다. OpenAI, Groq, Ollama 등 다양한 LLM을 지원하며, SearXNG로 익명 검색을 수행합니다. 원커맨드 Docker 설치로 빠르게 시작할 수 있습니다.

LibreChat Docker 설치 가이드: 멀티 AI ChatGPT 클론

LibreChat는 모든 주요 AI 제공자를 하나의 인터페이스에서 사용할 수 있는 오픈소스 ChatGPT 클론입니다. OpenAI, Anthropic, Google, Ollama 등을 연결하고 대화 중 자유롭게 전환할 수 있습니다. AI 에이전트, MCP, 코드 인터프리터, Artifacts, 멀티 유저, OAuth 등 엔터프라이즈급 기능을 제공합니다.

Dify Docker 설치 가이드: 프로덕션 레디 LLM 앱 플랫폼

Dify는 프로덕션 레디 LLM 애플리케이션 개발 플랫폼입니다. 시각적 워크플로우 빌더, RAG 파이프라인, AI 에이전트, 모델 관리, LLMOps를 하나의 인터페이스에서 제공합니다. OpenAI, Anthropic, Ollama 등 수백 개 LLM을 지원하며, Backend-as-a-Service로 모든 기능을 API로 제공합니다.

Flowise Docker 설치 가이드: 노코드 LLM 앱 빌더

Flowise는 드래그 앤 드롭으로 LLM 애플리케이션을 구축하는 노코드 플랫폼입니다. LangChain.js 기반으로 RAG 파이프라인, 챗봇, AI 에이전트를 코딩 없이 만들 수 있습니다. 다양한 LLM(OpenAI, Anthropic, Ollama)과 벡터 스토어를 지원하며, API 배포 및 웹사이트 임베드가 가능합니다.

PrivateGPT Docker 설치 가이드: 프라이빗 문서 AI 시스템

PrivateGPT는 100% 프라이빗한 문서 기반 AI 시스템입니다. 문서를 업로드하고 LLM에게 질문하면 데이터가 외부로 유출되지 않고 완전히 로컬에서 처리됩니다. OpenAI API 호환, LlamaIndex 기반 RAG 파이프라인을 제공하며, Ollama, llama.cpp 등 다양한 백엔드를 지원합니다. 인터넷 없이 오프라인에서도 동작합니다.

LocalAI Docker 설치 가이드: 로컬 OpenAI 호환 API 서버

LocalAI는 OpenAI API 호환 로컬 추론 서버입니다. 텍스트 생성, 이미지 생성, 음성 인식/합성, 임베딩을 모두 지원하며, 기존 OpenAI SDK/앱을 코드 변경 없이 사용할 수 있습니다. GPU 없이도 CPU만으로 실행 가능하며, llama.cpp, Stable Diffusion, Whisper 등 다양한 백엔드를 지원합니다.

Open WebUI Docker 설치 가이드: 셀프호스팅 AI 채팅 인터페이스

Open WebUI는 Ollama, OpenAI 등 다양한 LLM을 위한 셀프호스팅 AI 플랫폼입니다. ChatGPT 같은 UI에 RAG(9개 벡터DB), 웹 검색(15+ 엔진), 도구/함수, 멀티 유저, 엔터프라이즈 기능을 제공합니다. 완전한 오프라인 동작이 가능하며, 2.8억+ 다운로드를 기록한 가장 인기 있는 셀프호스팅 AI 인터페이스입니다.

BookLore Docker 설치 가이드: 전자책 라이브러리 관리 시스템

BookLore는 셀프호스팅 전자책 라이브러리 관리 시스템입니다. 현대적인 UI, 자동 메타데이터 수집, Kobo/KOReader 동기화, OPDS 지원, 내장 EPUB/PDF/CBZ 리더를 제공합니다. Magic Shelves로 스마트 컬렉션을 만들고, BookDrop으로 쉽게 책을 추가할 수 있습니다.

Paperless-ngx Docker 설치 가이드: 종이 없는 삶을 위한 문서 관리 시스템

Paperless-ngx는 스캔 문서를 OCR 처리하여 검색 가능한 디지털 아카이브로 만드는 셀프호스팅 문서 관리 시스템입니다. Tesseract OCR로 100+ 언어를 지원하고, 머신러닝으로 태그/담당자/문서유형을 자동 분류합니다. Consume 폴더, 웹 업로드, 이메일 가져오기 등 다양한 입력 방식과 Tika/Gotenberg로 Office 문서까지 지원합니다.