Minbook
EN
AI 관측 플랫폼의 사업화 — Langfuse와 Dify의 오픈소스 전략

AI 관측 플랫폼의 사업화 — Langfuse와 Dify의 오픈소스 전략

MJ · · 4 분 소요

Langfuse와 Dify의 오픈소스 사업화 전략 분석. MIT+EE 라이선스 모델과 메시지 크레딧 과금 방식을 비교하고, AI 프레임워크보다 관측/운영 레이어가 높은 전환 비용과 지속적 사용성 덕분에 수익화에 유리한 구조적 이유 정리.

프레임워크 위의 레이어

이전 글에서 LangChain, LlamaIndex, CrewAI가 프레임워크를 무료로 주고 운영 계층에서 과금하는 패턴을 분석했습니다.

이번에는 그 “운영 계층” 자체를 주력 제품으로 만든 두 회사를 봅니다. Langfuse(LLM 관측성 플랫폼)와 Dify(LLM 앱 개발 플랫폼). 둘 다 오픈소스이고, 둘 다 셀프호스트를 허용하면서도 수익을 만들고 있습니다.

graph TB
    subgraph LAYER1["Layer 1: 프레임워크"]
        A["LangChain / LlamaIndex / CrewAI"]
    end

    subgraph LAYER2["Layer 2: 관측·운영 플랫폼"]
        B["Langfuse — 관측성"]
        C["Dify — 앱 빌더"]
    end

    subgraph LAYER3["Layer 3: 인프라"]
        D["HuggingFace / Qdrant / Weaviate"]
    end

    A -->|"트레이싱 데이터 전송"| B
    A -->|"노코드 앱 빌드"| C
    B --> D
    C --> D

    style LAYER2 fill:#fff3e0,stroke:#ff9800

Langfuse: MIT + Enterprise Edition 모델

포지셔닝

Langfuse는 LLM 애플리케이션의 관측성(Observability) 전문 플랫폼입니다. LangSmith와 직접 경쟁하지만, 결정적 차이가 있습니다: 프레임워크에 종속되지 않습니다.

LangSmith는 LangChain 생태계에 최적화되어 있습니다. Langfuse는 LangChain, LlamaIndex, OpenAI SDK, Anthropic SDK, 어떤 LLM 호출이든 트레이싱합니다.

비교 항목LangSmithLangfuse
프레임워크 종속LangChain 최적화프레임워크 무관
셀프호스트✅ (Docker Compose)
오픈소스 코어❌ (소스 비공개)✅ (MIT)
트레이싱
평가 (Evals)
프롬프트 관리
비용 추적기본✅ (모델별 자동 계산)

라이선스 구조: MIT + EE

Langfuse의 핵심 전략은 MIT + Enterprise Edition(EE) 이중 라이선스입니다.

graph LR
    subgraph MIT["MIT 라이선스 (무료)"]
        A1["트레이싱"]
        A2["평가"]
        A3["프롬프트 관리"]
        A4["비용 추적"]
        A5["셀프호스트"]
    end

    subgraph EE["Enterprise Edition (유료)"]
        B1["SSO / SAML"]
        B2["RBAC 세분화"]
        B3["감사 로그"]
        B4["SLA 보장"]
        B5["전용 인프라"]
    end

    MIT -->|"기업 규모 확대"| EE

    style MIT fill:#e8f5e9,stroke:#4caf50
    style EE fill:#fff3e0,stroke:#ff9800

MIT 코어의 범위가 넓습니다. 트레이싱, 평가, 프롬프트 관리, 비용 추적 — 핵심 기능 전부가 MIT입니다. 셀프호스트도 가능합니다. “기능 제한 무료 + 전체 기능 유료”가 아니라, 전체 기능 무료 + 기업 관리 기능 유료 구조입니다.

가격 구조

플랜월 비용포함 Observations추가
Hobby무료50K/월
Pro$59/월100K/월$10/추가 100K
Team$499/월1M/월볼륨 디스카운트
Enterprise커스텀무제한SSO, SLA, 전용 인프라
셀프호스트$0무제한직접 인프라 운영

왜 셀프호스트를 허용해도 수익이 되나

셀프호스트를 허용하면 “모두가 무료로 쓰지 않을까?”라는 의문이 생깁니다. 실제로는 그렇지 않습니다:

사용자 유형선택이유
개인 / 사이드 프로젝트셀프호스트비용 절약, 학습 목적
스타트업 (5–20명)Cloud Pro/Team인프라 운영 인력 없음, 빠른 시작
중견기업 (50–200명)Enterprise CloudSSO, 감사 로그, SLA 필요
대기업 (200명+)Enterprise 셀프호스트데이터 주권, 사내 보안 정책

셀프호스트 사용자는 미래의 유료 고객입니다. 개인이 셀프호스트로 Langfuse를 익힌 후, 회사에서 도입을 추천하면 Cloud나 Enterprise로 전환됩니다. 셀프호스트는 마케팅 비용 없는 고객 교육 채널입니다.

Langfuse의 성장 지표

지표수치 (2026 Q1 기준)
GitHub Stars8K+
월간 Cloud Observations수십억 건 (추정)
셀프호스트 인스턴스수천 개 (Docker pulls 기반 추정)
핵심 팀 규모~15명 (베를린)
투자Series A (금액 비공개)

Dify: 추가 조건부 오픈소스

포지셔닝

Dify는 LLM 앱 빌더 플랫폼입니다. Langfuse가 “이미 만든 LLM 앱의 관측”이라면, Dify는 “LLM 앱 자체를 노코드/로우코드로 만드는 것”에 집중합니다.

기능설명
Visual Workflow드래그 앤 드롭으로 LLM 파이프라인 구성
RAG Engine문서 업로드 → 자동 인덱싱 → 검색 연동
Agent Builder도구 사용 에이전트를 UI로 정의
Prompt IDE프롬프트 작성, 테스트, 버전 관리
API 자동 생성만든 앱을 REST API로 즉시 배포
관측 / 로그내장 트레이싱, 비용 추적

라이선스: 오픈소스이되 제한 있음

Dify의 라이선스는 Langfuse(MIT)보다 제한적입니다.

항목Langfuse (MIT)Dify
코드 열람
사내 셀프호스트
수정 및 배포✅ 무제한✅ 단, 조건 있음
멀티 테넌트 SaaS로 재판매❌ 별도 라이선스 필요
로고/브랜딩 제거유료 라이선스 필요
상업적 사용✅ 무제한✅ 사내 사용은 무료

Dify의 라이선스는 “소스 코드는 공개하되, 이걸 가져다가 경쟁 SaaS를 만들지는 마라”는 조건입니다. 이건 MIT보다 제한적이지만, 실용적인 타협입니다:

  • 사내 셀프호스트: 대부분의 사용자에게 충분
  • 재판매 제한: AWS/Azure가 Dify를 복제해서 Managed Dify를 파는 것을 방지
  • 사실상 대부분의 사용은 무료: Dify를 자기 회사의 LLM 앱에 쓰는 건 완전히 무료

가격 구조

플랜월 비용메시지 크레딧팀원 수앱 수
Sandbox무료200/회1명10개
Professional$59/월5,000/월3명50개
Team$159/월10,000/월무제한무제한
Enterprise커스텀무제한무제한무제한

과금 축: 메시지 크레딧 + 팀원 수

Dify는 LangChain과 유사한 하이브리드 과금이지만, 차이점은 앱 빌더라는 포지션이 과금을 자연스럽게 만든다는 것입니다. “내가 만든 앱이 100번 호출됐으니 크레딧을 쓴다” — 비즈니스 가치와 직결됩니다.


Langfuse vs Dify: 같은 레이어, 다른 전략

graph TB
    subgraph LANGFUSE["Langfuse 전략"]
        LF1["MIT 전체 공개"]
        LF2["셀프호스트 무제한"]
        LF3["EE로 기업 과금"]
        LF4["프레임워크 독립"]
    end

    subgraph DIFY["Dify 전략"]
        DF1["조건부 오픈소스"]
        DF2["셀프호스트 가능 (제한)"]
        DF3["메시지 크레딧 과금"]
        DF4["올인원 플랫폼"]
    end

    LF1 -.->|"더 넓은 커뮤니티"| LF4
    DF1 -.->|"재판매 방어"| DF4
비교 항목LangfuseDify
핵심 가치”이미 만든 앱을 관측""앱을 만들어주는 플랫폼”
타깃 사용자개발자 (코드 작성자)개발자 + 비개발자
경쟁 제품LangSmith, ArizeFlowise, n8n, Zapier AI
라이선스MIT (제한 없음)조건부 (재판매 제한)
셀프호스트 전략미래 고객 교육 채널사내 도입 채널
과금 전환 트리거팀 규모 확대메시지 볼륨 증가
GitHub Stars8K+55K+

포지셔닝이 과금을 결정한다

  • Langfuse: “관측은 모든 LLM 앱에 필요하다” → 범용성 극대화 → MIT로 진입 장벽 최소화 → Enterprise 기능으로 과금
  • Dify: “LLM 앱을 누구나 만들 수 있다” → 사용성 극대화 → 메시지 크레딧으로 사용량 과금 → 라이선스로 재판매 방어

관측 레이어가 프레임워크보다 수익에 유리한 이유

프레임워크와 관측/운영 플랫폼의 수익화 구조를 비교하면, 관측 레이어가 더 유리한 이유가 명확합니다:

요인프레임워크관측/운영 플랫폼
전환 비용낮음 (코드 수정으로 교체 가능)높음 (데이터·워크플로 이전 어려움)
경쟁 대안많음 (LangChain vs LlamaIndex vs …)적음 (전문 관측 도구는 소수)
데이터 축적 효과없음있음 (히스토리가 가치)
사용 빈도개발 시에만운영 내내 지속적
과금 정당성낮음 (무료 대안 존재)높음 (시간 절약 → 비용 절감)

프레임워크는 “만드는 도구”이고, 관측 플랫폼은 “운영하는 도구”입니다. 만드는 행위는 한 번이지만, 운영은 계속됩니다. 지속적 사용 = 지속적 과금 = 반복 매출(recurring revenue).

1인 빌더에게 시사하는 점

MMU의 포지셔닝 관점에서:

  • MMU CLI는 만드는 도구 — 론칭 전에 집중적으로 쓰고 끝남
  • Playbook Pack은 운영 가이드 — 론칭 후에도 참고하는 콘텐츠
  • AI Coach는 관측 레이어 — 지속적으로 체크리스트 상태를 진단

Langfuse/Dify의 교훈: 한 번 쓰는 도구보다 지속적으로 쓰는 도구가 수익화에 유리합니다. MMU도 CLI(일회성) → AI Coach(반복 사용)으로 수익 축을 이동시키는 게 장기 전략입니다.


정리

항목LangfuseDify
라이선스MIT (완전 자유)조건부 (재판매 제한)
과금 축Observations + EE메시지 크레딧 + 팀원
셀프호스트무제한 (미래 고객 채널)사내 사용 무료
핵심 교훈관측은 범용 → 최대한 열기앱 빌더는 경쟁 방어 필요

다음 글에서는 인프라 레이어 — Hugging Face, Qdrant, Weaviate — 의 사업화 전략을 분석합니다. “누구나 셀프호스트 가능”한 인프라에서 어떻게 수익을 만드는지 살펴봅니다.

공유

관련 글