Minbook
EN
Stanford AI Index 2026 다시 읽기 — 왜 작년보다 약하게 느껴지는가

Stanford AI Index 2026 다시 읽기 — 왜 작년보다 약하게 느껴지는가

MJ · · 8 분 소요

AI Index 2026을 읽으며 작년보다 약하다는 인상이 자꾸 남았다. 그 인상의 정체를 따라가 본 글. 리포트가 다룬 핵심 지표와, 발행 직전 8주 동안 리포트 바깥에서 벌어진 변화를 나란히 본다.

읽으면서 계속 든 생각

Stanford HAI의 2026 AI Index Report가 4월 중순 공개됐다. 9번째 에디션. 500페이지 넘는 분량에 정량 데이터가 빼곡하다. 키 메시지는 단순하다. 기술은 가속 중인데 그 주변 시스템은 따라가지 못하고 있다.

매년 이 리포트를 기다렸다. 그런데 올해 읽으면서 계속 같은 감각이 남았다. 작년보다 약하다.

새로운 숫자는 많다. 논점도 여전하다. 그런데 작년에 느꼈던, 이 한 리포트만 보면 AI 지형이 한눈에 정리된다는 감각이 올해는 덜하다. 왜일까.

이 글은 두 부로 구성된다. 1부는 리포트가 실제로 말하는 것을 정량 데이터로 정리한다. 2부는 리포트가 놓친 것을 2026년 1–2분기 지각 변동 리스트로 제시한다. 마지막으로 왜 이 리포트가 약하게 느껴지는지를 짚는다. 연 1회라는 주기 자체가 문제의 본질이다.


1부 — 리포트가 말하는 것

가속은 실제로 가속 중

AI 능력 지표는 정체가 아니라 가속 중이라는 것이 리포트의 핵심 메시지 중 하나다.

지표작년올해
SWE-bench Verified (코딩 벤치마크)약 60%거의 100%
조직의 생성형 AI 도입률55% 내외88%
대학생 생성형 AI 사용률약 65%약 80%
AI 에이전트 컴퓨터 작업 성공률약 12%약 66%

1년 만에 이 정도의 점프가 기록된 지표가 많다. 특히 코딩 벤치마크는 포화 상태에 가까워졌다. AI 에이전트의 컴퓨터 조작 성공률이 12%에서 66%로 뛴 것은 2025년 한 해의 agent 연구가 얼마나 빨랐는지 보여주는 수치다. 다만 여전히 3번 중 1번은 실패다.

미중 격차가 사실상 소멸했다

성능 프론티어에서 미국과 중국의 격차가 거의 사라졌다. 2026년 3월 기준 Anthropic의 리드는 약 2.7%에 불과한 것으로 보고된다. 한국은 인구 1인당 AI 특허 수에서 세계 1위를 기록했다.

이 추세를 작년에는 예측으로 말했다면, 올해는 기록으로 말한다. 변화 자체보다 변화가 공식화됐다는 점이 의미 있다.

울퉁불퉁한 프론티어

리포트가 새롭게 채용한 표현이 jagged frontier(울퉁불퉁한 프론티어)다. AI 능력이 일관되게 향상되는 것이 아니라 과제별로 편차가 크다는 관찰이다.

IMO(국제수학올림피아드) 금메달 수준 문제를 푸는 AI가 아날로그 시계를 읽는 데는 50% 정확도밖에 내지 못한다. 코딩 SWE-bench는 포화에 가까운데 컴퓨터 조작은 아직 66%다.

이 울퉁불퉁함이 AI 도입 전략에 주는 시사점은 분명하다. AI가 가능한가가 아니라 이 태스크에서 AI가 가능한가를 개별 검증해야 한다.

Responsible AI가 능력을 못 따라간다

안전·거버넌스 측면의 격차는 더 벌어졌다.

  • AI 사고 보고 건수: 작년 233건 → 올해 362건 (+55%)
  • 안전성을 높이면 정확도가 떨어지는 트레이드오프 확인
  • 국가별 AI 규제 신뢰도: 미국 31%로 조사 대상국 중 최하위

안전 이슈가 숫자로 드러났다는 점은 진전이지만, 능력 성장 속도(+수배)에 비해 안전 인프라 성장 속도(+55%)는 너무 느리다. 격차는 좁혀지지 않고 오히려 벌어지고 있다는 것이 리포트의 톤이다.

경제·인력의 역설

지표
2025년 미국 AI 투자약 $2,859억
2025년 중국 AI 투자미국의 1/23 수준
미국행 AI 연구자 유입전년 대비 약 89% 감소
22–25세 미국 개발자 고용약 20% 감소
고령(55+) 개발자 수요증가 중
고객지원·SW 개발 생산성14–26% 증가

돈은 몰리는데 사람은 떠난다. 생산성은 오르는데 신입 고용은 줄어든다. 이 정반대 방향의 동시 진행이 2025년 AI 경제의 실제 모습이다.

전문가-대중 격차

마지막 주요 지표는 인식 격차다. AI 전문가의 73%가 AI의 고용 영향을 긍정적으로 본다. 일반 대중은 23%만 긍정적이다. 격차는 50%p. 인사이더와 아웃사이더의 분리가 숫자로 확인된다. 이 격차가 정책·제품 설계에 어떤 영향을 주는지 리포트는 여러 장을 할애해 다룬다.

정량적으로 보면 2026 AI Index는 여전히 풍부한 리포트다. SWE-bench 포화, agent 성공률 점프, 미중 격차 소멸, jagged frontier, 안전 격차 확대, 신입 고용 충격, 전문가-대중 인식 분리. 이 일곱 개 관찰만 뽑아도 AI 전략 보고서 한 권이 나온다.

여기까지 읽고 나면 이런 감각이 든다. 이 수치들 중 상당수는 이미 알고 있는 것의 확인이다. 2025년 한 해 동안 꾸준히 추적해 온 사람에게는 놀라움이 적다.


2부 — 리포트가 놓친 것

여기가 이 글의 핵심이다. Stanford AI Index의 데이터 cutoff는 통상 전년 말에서 올해 1월 사이다. 리포트 발행은 4월이다. 이 cutoff와 발행 사이의 3–4개월이 2026년에는 결정적이다.

2026년 1분기 후반부터 2분기 초까지 약 8주 동안, AI 분야에서 구조 변화라 부를 만한 이벤트가 최소 여섯 건 발생했다. 리포트는 이 중 하나도 포함하지 못한다.

Agent Orchestration 패러다임 역전

4월 첫 주, Anthropic은 96시간 동안 세 건의 발표를 연속으로 내놓았다(관련 포스트). 4월 4일 써드파티 agentic 도구에서 Claude 구독 사용 차단. 4월 7일 Claude Mythos Preview 공개, 일반 API 없이 선별 파트너에 한정 배포. 4월 8일 Claude Managed Agents public beta, Anthropic이 에이전트 런타임을 직접 호스팅.

거의 같은 시기에 Advisor Tool이 공식 문서에 추가됐다(관련 포스트). 이 패턴은 작은 모델이 주도하고 큰 모델이 조언하는 구조로, 전통적 planner-executor 구조의 역전이다.

리포트가 다룬 agent 성공률 12→66%라는 수치는 이 구조 변화 이전의 데이터다. 2026년 1–2분기에 발생한 Agent Orchestration 패러다임 재배치는 리포트에 없다. 다음 에디션(2027년 4월)에 들어갈 것이다. 그때는 이미 한물간 이슈가 되어 있을 것이다.

Agent Benchmark 신뢰성 붕괴

4월 중순, UC Berkeley RDI가 “Exploiting the most prominent AI agent benchmarks” 보고서를 공개했다. 주요 agent 벤치마크들이 적대적으로 exploit 가능하다는 실증이다. 벤치마크에서 높은 점수를 받는 것과 실제 능력이 높은 것이 갈라진다.

비슷한 시기에 AJ-Bench 같은 agent-as-judge 벤치마크 연구가 쏟아졌다. 평가 자체가 orchestration되어야 한다는 움직임이다.

리포트가 기준으로 삼는 벤치마크 수치들은 이 벤치마크가 흔들리는 국면 이전에 측정된 것이다. 다음 에디션에서는 아마 벤치마크 방법론 위기 섹션이 추가될 것이다.

컨설팅 산업의 AI 인프라化

4월 말, OpenAI는 Codex를 7개 글로벌 컨설팅 기업과 함께 엔터프라이즈로 확산한다는 발표를 했다. McKinsey는 agent AI 마케팅 보고서를 냈다.

리포트의 고용 영향 섹션은 개발자·고객지원 중심이다. 그런데 2026년 2분기 현재 가장 빠르게 AI로 재편되는 분야 중 하나는 컨설팅이다. AI가 컨설팅 도구가 되는 것이 아니라 컨설팅이 AI 배포 채널이 되는 역전이다. 리포트가 다루지 못한 이유는 단순하다. 이 발표들이 cutoff 이후다.

모델 간 가격 피라미드 안정화

2026년 초, Opus·Sonnet·Haiku의 3단 가격 비율이 5배·19배로 정착했다. 이 비율이 바로 Advisor Tool 같은 패턴의 경제학을 만들었다.

리포트의 투자·가격 섹션은 매크로 투자 규모(2,859억 달러)는 다루지만, 모델 가격 구조가 orchestration 아키텍처를 결정하는 현상은 다루지 않는다. 이 구조 자체가 2026년 Q1 후반에 안정됐기 때문이다.

Claude Opus 4.7과 1M Context

4월 17일, Anthropic이 Claude Opus 4.7을 출시했다. 1M 토큰 context와 강화된 추론 능력이 특징이다. 1M context는 fine-tuning과 in-context learning의 경계를 재정의한다. SKILL0 같은 연구의 전제 조건이 이 모델 출시 이후에 완성된다.

리포트는 Opus 4.7 이전 시점까지의 데이터를 다룬다. 컨텍스트 창이 1M으로 확장된 이후의 agent 설계 패턴 변화는 반영되지 않았다.

Gartner 2028 보안 예측

Gartner가 2026년 초에 “2028년까지 기업 GenAI 앱의 25%가 연 5회 이상의 보안 사고를 겪을 것”이라는 예측을 공개했다. 이 숫자는 이후 엔터프라이즈 AI 도입 담론에서 가장 자주 인용되는 통계 중 하나가 됐다.

리포트의 “AI 사고 보고 건수 362건”은 2025년 데이터다. Gartner가 예측한 2028년 예상 사고 건수는 수천 건 단위로 훨씬 크다. 이 스케일 차이가 리포트에는 암시되지 않는다.

8주가 만든 공백

리포트 cutoff 이후 약 8주 동안 벌어진 여섯 가지 변화는 모두 2026년 AI 지형을 다시 그리는 수준의 것들이다. 월별로 정리하면 흐름이 더 분명해진다.

timeline
    title 2026년 월별 주요 변화
    section 2025-12 / 2026-01
        AI Index Cutoff
    section 2026-02
        모델 가격 피라미드 안정화
    section 2026-03
        Agent Orchestration 논문 가속
    section 2026-04
        4월 4일 : Anthropic 써드파티 차단
        4월 7일 : Claude Mythos Preview
        4월 8일 : Managed Agents Public Beta
        4월 13일 : Berkeley 벤치마크 Exploit
        4월 14일 : AI Index 2026 공개
        4월 17일 : Claude Opus 4.7 출시
        4월 22일 : OpenAI Codex × 7 컨설팅

AI Index 2026의 발행일(4월 14일) 자체가 이미 Opus 4.7 출시(4월 17일) 이전이다. 리포트가 현재 AI 지형에 대한 완결된 설명이 되기에는 그 현재가 너무 빠르게 움직이고 있다.


왜 느리게 느껴지는가

리포트 품질이 작년보다 떨어진 것은 아니다. 그런데 체감은 약해졌다. 이 괴리의 원인은 제작 주기에 있다.

2018–2023년 AI Index는 연 1회 주기로 충분했다. AI 분야의 주요 변화가 대략 연 단위로 일어났기 때문이다. 새 모델 세대가 12–18개월 주기였고, 벤치마크 갱신도 연 1회면 따라갈 수 있었다.

2024년부터 주요 변화의 간격이 짧아졌다. GPT-4 series, Claude 3/3.5, Llama 3, Gemini 1.5 등이 연 1회보다 훨씬 자주 공개됐다. 다만 이 시점까지는 모델 출시가 주된 이벤트였고, 리포트는 모델 성능 변화를 정량화하는 것으로 충분했다.

2026년부터는 변화의 종류가 달라졌다. 모델 출시가 아니라 구조 역전이 주요 이벤트가 됐다(Advisor, Agent-as-judge, On-the-job learning). 벤치마크 갱신이 아니라 벤치마크 신뢰성 자체가 의제가 됐다. 기술 지표가 아니라 가격 구조가 아키텍처를 결정하기 시작했다.

연간 리포트는 이 세 종류 변화를 다루기에 주기가 너무 길다. 특히 구조 역전은 발생 시점에 포착해야 의미가 있는데, 연간 리포트는 역전이 끝난 후 정리하는 역할밖에 못한다.

리포트 자체를 폐기하자는 주장은 아니다. 연간 리포트의 종합성·비교 가능성은 여전히 가치가 있다. 다만 보조 주기가 필요하다.

제품주기역할
AI Index 연간 리포트연 1회종합·비교 기준선 제공
AI Index Quarterly Delta분기 1회지난 3개월의 구조 변화 포착
AI Index Pulse월 1회주요 벤치마크·가격·도입률 짧은 업데이트

Stanford HAI가 직접 이 세 주기를 모두 운영할 필요는 없다. 연간 리포트만 그대로 유지하고, 분기·월간은 다른 기관(Anthropic Economic Index, Hugging Face Leaderboard, private analytics)에 맡길 수도 있다. 다만 연간 리포트 하나로 전체 지형을 본다는 사용자 기대는 2026년 기준으로 더 이상 성립하지 않는다는 점만 분명히 할 필요가 있다.


리포트를 읽는 법

2026 AI Index를 어떻게 활용해야 할까. 몇 가지 실무적인 방법이 있다.

리포트를 snapshot으로 읽는 것이 첫째다. 2025년 말부터 2026년 1월 시점의 정량 지표로 활용하되, 현재 지형으로 확대 해석하지 않는다.

둘째, 추세 방향은 믿되 절대 수치는 이미 낡았을 가능성을 전제로 한다. 예를 들어 agent 성공률 66%는 2025년 말 수치이며, 2026년 2분기 기준으로는 이 숫자가 더 높을 수 있다.

셋째, 리포트가 안 다룬 것의 리스트를 매년 따로 만든다. 2026년의 경우 위에서 정리한 여섯 가지 지각 변동이 그 리스트다. 내년 리포트가 나올 때 이 리스트를 얼마나 흡수했는지로 리포트 품질을 평가할 수 있다.

마지막으로 리포트의 인식 격차 데이터(전문가 73% vs 대중 23%)는 가장 가치 있는 부분이다. 이 데이터는 주기가 느려도 상대적으로 안정적이다. 구조 변화가 아니라 사회 변화를 다루기 때문이다.


마무리 — 리포트의 유효기간

Stanford AI Index 2026은 약한 리포트가 아니다. 500페이지 넘는 정량 데이터를 1년에 한 번 정리하는 것 자체가 의미 있다. 다만 이 리포트 하나로 AI 지형을 본다고 생각하면 안 되는 시점에 들어왔다.

2023년까지는 리포트 하나로 충분했다. 2024–2025년에는 리포트 더하기 선별된 모델 출시 소식. 2026년부터는 리포트는 기준선이고, 실시간 지형은 다른 채널에서 조합해야 한다.

1년짜리 리포트의 신선도는 발행 직후 가장 높고 3개월 안에 빠르게 떨어진다. 2026년 4월 발행이면 7월 이후에는 보조 정보원이 없으면 지형 인식이 틀어진다. 이 유효기간을 미리 계산하고 읽어야 한다.

이 글의 마지막 주장은 이렇다. AI Index 2026은 여전히 가치 있다. 다만 그 가치의 크기가 작년보다 작다는 것이 문제의 본질이 아니다. 같은 크기의 리포트로 덮을 수 있는 지형의 비율이 줄어든 것이다.

리포트를 읽으며 들었던 약하다는 감각의 정체는 이것이다. 리포트는 그대로인데, AI 지형이 리포트 바깥으로 빠르게 확장되고 있다.


참고 자료

공유

관련 글