
Self-Tuning Loop 직접 만들기 — 레퍼런스 구현 가이드
Self-Tuning Loop 4단계(Generate → Capture → Analyze → Evolve)를 범용 모듈로 추출. Supabase DDL, diff 캡처 유틸, 분석/진화 프롬프트 전문, 이메일/블로그 적용 예시, GitHub 레퍼런스 구현.

Self-Tuning Loop 4단계(Generate → Capture → Analyze → Evolve)를 범용 모듈로 추출. Supabase DDL, diff 캡처 유틸, 분석/진화 프롬프트 전문, 이메일/블로그 적용 예시, GitHub 레퍼런스 구현.

1편에서 소개한 Self-Tuning Loop 패턴을 실제로 운영하는 시스템의 전체 아키텍처. 데이터 수집(35개 소스), AI 큐레이션, Telegram 입력 파이프라인, 주간 자동 리뷰, Syncthing 기반 무배포 프롬프트 진화까지.

GEO Score를 구성하는 4개 레이어(Inclusion, Prominence, Quality, Stability)의 설계 철학과 계층적 의존 관계, 그리고 각 지표가 의사결정에 주는 의미 분석
Self-Tuning Loop 4단계(Generate → Capture → Analyze → Evolve)를 범용 모듈로 추출. Supabase DDL, diff 캡처 유틸, 분석/진화 프롬프트 전문, 이메일/블로그 적용 예시, GitHub 레퍼런스 구현.
1편에서 소개한 Self-Tuning Loop 패턴을 실제로 운영하는 시스템의 전체 아키텍처. 데이터 수집(35개 소스), AI 큐레이션, Telegram 입력 파이프라인, 주간 자동 리뷰, Syncthing 기반 무배포 프롬프트 진화까지.
GEO Score를 구성하는 4개 레이어(Inclusion, Prominence, Quality, Stability)의 설계 철학과 계층적 의존 관계, 그리고 각 지표가 의사결정에 주는 의미 분석
WICHI의 핵심 분석 체계인 9-Bucket 쿼리 프레임워크 설계 기록. 전통적인 검색 의도(Intent)가 아닌 '브랜드 포함 여부'를 기준으로 3개 Zone(Owned, Battleground, Competitive)과 9개 Bucket을 정의하고, AI의 자발적 추천을 측정하기 위한 설계 원칙 정리.
AI 검색 엔진 간 응답 편차를 시그널로 활용하는 멀티엔진 아키텍처 설계 원칙과 병렬 수집 구조, 어댑터 패턴을 통한 확장성 확보 방법 분석
Sentry와 Betterstack을 활용해 $0로 구축하는 최소 모니터링 가이드와 론칭 전 80분 투자가 에러 대응 시간을 13시간에서 1시간으로 단축한 사례 분석
Make Me Unicorn의 PLG 성장을 위해 설계한 3가지 공유 요소(점수 카드, 배지, 체크리스트 커스텀 링크)의 심리적 기제와 바이럴 루프 구현 전략 기록
MMU 체크리스트의 false-pass 문제를 해결하기 위해 17개 feature flag와 condition marker 시스템을 설계하고, 48개 테스트로 점수 정확도를 개선한 과정 기록
AI 검색(GEO) 시장의 3가지 기회 요인과 WICHI가 '광고'나 '대행'이 아닌 'SaaS형 모니터링'을 첫 번째 비즈니스 모델로 선택한 전략적 배경 분석
CC 내부 Memory System(4타입 영구 메모리, Auto-Dream, Auto-Compact)과 독립 구축한 3-Layer 시스템(문서→인덱스→시맨틱검색)의 구조적 대응. validate_placement()는 CC에 없는 차별점
while true + cat task.md에서 출발하여 Stop Hook, 파일 기반 상태 영속성, Cross-Model Worker-Reviewer 분리까지. 코딩·프롬프트 정제·테스트 확장 3가지 실전 예시와 오픈소스 생태계 분석
MMU를 유료 SaaS 대시보드가 아닌 MIT 오픈소스 CLI로 공개한 이유 분석. 1인 빌더의 워크플로우(터미널 중심)와 비용 구조(구독 피로도)를 고려한 결정 과정, 그리고 'What(무료)-How(유료)-Auto(SaaS)'로 이어지는 3단계 수익 모델 설계 및 검증 지표 정리.
SaaS 론칭 체크리스트 534개 항목이 80개 서비스 분석, 12개 가이드라인, 5개 실전 실패 사례에서 도출된 과정과 항목별 우선순위(P0–P3) 결정 로직 기록
기능 구현(12%) 이후 론칭까지 추가로 소요된 3주간의 작업(결제 안정성, 보안, 법적 문서, SEO 등)을 통해 '코드 완료'와 '제품 완료'의 차이를 분석
해커톤 MVP에서 상용 SaaS로 전환하며 적용한 10가지 핵심 변경 사항 정리. 보안 강화, JWT 인증, KO/EN 다국어 지원, 결제 자동화, 에러 모니터링, DB 정규화 등 '돈을 받을 수 있는 서비스'로 만들기 위한 우선순위별 작업 내역 분석.
조코딩 해커톤에서 3일 만에 WICHI MVP를 구축한 과정과 기술 스택(FastAPI, React, Supabase) 선택 이유, 그리고 제한된 시간 내 '작동하는 제품'을 만드는 우선순위 기록
해커톤 탈락 직후 24시간 내에 WICHI를 독립 SaaS로 피벗하며 결정한 i18n 도입, SEO 설정, 수익화 로드맵 재구성 등 실행 항목과 의사결정 기록
Lovable($25/mo) → Vercel($0) 마이그레이션하고 빌드 파이프라인을 재구성, 프론트엔드 호스팅 전환 기록
1인 SaaS 빌더를 위한 필수 보안 체크리스트. OWASP Top 10 중 1인 개발에 치명적인 5가지 취약점 방어와 WICHI에서 보완한 실제 보안 설정 사례.
AI 툴에 대한 FOMO로 시작한 비전공자 빌더가 '딸깍' 그 이상의 현실적인 운영 문제를 해결하며 남기는 개인적인 실행 노트와 운영 철학.