1. 무엇이 바뀌었나: 메시지 → 토큰
2026년 4월 2일, OpenAI는 Codex의 요금 체계를 근본적으로 바꿨다.
기존의 메시지당 크레딧 방식에서 토큰 소비량 기반 방식으로 전환한 것이다.
기존 방식은 단순했다.
클라우드 작업 1건 = 약 25크레딧(GPT-5.3-Codex 기준).
하지만 작업마다 실제 토큰 사용량 차이가 크기 때문에
같은 "1건"에 크레딧이 균일하게 빠지는 것은 실제 자원 사용과 괴리가 컸다.
간단한 버그 수정과 전체 리팩터링이 같은 가격인 셈이었다.
새 방식은 실제 소비된 토큰에 비례한다.
입력 토큰, 캐시 입력 토큰, 출력 토큰을 각각 다른 요율로 과금한다.
| 항목 | 변경 전 | 변경 후 |
| 과금 기준 | 메시지/PR 건수 | 실소비 토큰 수 |
| 예측성 | 쉬움 (건당 고정) | 작업 크기에 따라 변동 |
| 적용 시점 | ~ 2026년 4월 1일 | 2026년 4월 2일 ~ |
| 가시성 | 건수 기준 | 토큰 유형별 세분화 |

▲ 모델 선택과 작업 유형이 실제 크레딧 소비에 큰 영향을 미친다
2. 신규 요금표: 모델별 토큰 단가 완전 정리
새 요금표는 100만 토큰(1M tokens)당 크레딧으로 표기된다.
| 모델 | 입력 토큰 | 캐시 입력 | 출력 토큰 |
| GPT-5.4 | 62.50 | 6.250 | 375 |
| GPT-5.4-Mini | 18.75 | 1.875 | 113 |
| GPT-5.3-Codex | 43.75 | 4.375 | 350 |
| GPT-5.2-Codex | 43.75 | 4.375 | 350 |
| GPT-5.2 | 43.75 | 4.375 | 350 |
| GPT-5.1-Codex-Max | 31.25 | 3.125 | 250 |
| GPT-5.1-Codex-mini | 6.25 | 0.625 | 50 |
세 가지가 핵심 포인트이다.
① 출력 토큰이 가장 비싸다:
GPT-5.3-Codex 기준 출력(350)이 입력(43.75)보다 약 8배 비싸다.
코드를 많이 생성하는 작업일수록 비용이 크게 올라간다.
② 캐시 입력은 일반 입력의 1/10:
동일 리포지토리에서 반복 작업할수록 시스템 프롬프트·컨텍스트가 캐시되어 비용이 급감한다.
같은 프로젝트에서 오래 작업할수록 유리하다.
③ Fast mode는 2배 소비:
속도 우선 모드 사용 시 모든 모델에서 크레딧 소비가 2배가 된다.
실제 계산 사례: 클라우드 PR 1건의 비용
GPT-5.3-Codex로 중간 규모 PR(입력 20K토큰, 출력 5K토큰)을 처리하는 경우를 가정한다.
- 입력: 20,000 × 43.75 / 1,000,000 = 0.875크레딧
- 출력: 5,000 × 350 / 1,000,000 = 1.75크레딧
- 합계: 약 2.625크레딧
레거시 요금표의 클라우드 작업 1건(약 25크레딧)과 비교하면
이 규모 작업은 구 요금 대비 약 10배 저렴하다.
반면 대규모 리팩터링(입력 200K+, 출력 50K+)은 구 요금을 초과할 수 있다.
3. 레거시 요금표: 아직 적용 중인 플랜은?
모든 플랜이 토큰 기반으로 전환된 것은 아니다. 현재 두 가지 요금표가 동시에 운영 중이다.
토큰 기반 요금 적용 플랜:
- 신규·기존 ChatGPT Plus / Pro
- 신규·기존 ChatGPT Business
- 신규 ChatGPT Enterprise
레거시(메시지 기반) 요금 유지 플랜:
- 기존 Enterprise / Edu
- 신규·기존 Edu, Teacher, Healthcare
레거시 요금표(GPT-5.3-Codex 기준):
| 작업 유형 | 크레딧/건 |
| 로컬 작업 1메시지 | 약 5크레딧 |
| 클라우드 작업 1메시지 | 약 25크레딧 |
| 코드 리뷰 1 PR | 약 25크레딧 |
OpenAI는 기존 Enterprise/Edu 고객을 수 주 내로 순차 마이그레이션할 예정이다.
마이그레이션 일정은 관리자 이메일로 별도 안내된다.
4. 요금 변화로 실제 비용이 오르나, 내리나
OpenAI는 "작업 유형에 따라 비용이 올라갈 수도, 내려갈 수도 있다"고 공식 FAQ에서 밝혔다.
비용이 감소하는 경우:
- 짧고 반복적인 작업 (캐시 적중률이 높아짐)
- 같은 프로젝트에서 장시간 연속 작업
- 구 요금이 실제 토큰 사용보다 높게 책정된 간단한 작업
비용이 증가하는 경우:
- 대규모 코드 생성이 많은 작업 (출력 토큰 단가가 높음)
- Fast mode를 자주 사용하는 경우
- 매 요청마다 새로운 대형 컨텍스트를 주입하는 경우

▲ Codex는 병렬 에이전트 작업을 처리하는 지휘소 역할을 한다. 토큰 기반 요금은 이런 복잡한 작업 비용을 더 정확하게 반영한다
OpenAI가 제시하는 개발자 1인당 월 평균 비용은 $100~$200 수준이다.
하지만 사용 모델, 병렬 인스턴스 수, 자동화 빈도, Fast mode 사용 여부에 따라 편차가 크다.
팀별 비용 시뮬레이션
개발자 5명의 월 예상 비용이다.
- 경량 사용자 2명(로컬 위주, GPT-5.4-Mini): 월 $40~$60/인
- 헤비 사용자 2명(클라우드 + 자동화, GPT-5.3-Codex): 월 $150~$200/인
- 관리자 1명(코드 리뷰 위주): 월 $80~$100/인
- 팀 전체 월 예상: 약 $510~$720
토큰 기반 전환 후 동일 작업량 기준으로
헤비 사용자 비용은 캐시 적중으로 약 15% 감소,
경량 사용자는 출력 집중 작업 증가로 약 5% 증가할 것으로 예상된다.
마치며
이번 요금 전환의 핵심 메시지는 두 가지이다.
- 첫째, 작업 크기가 이제 비용을 직접 결정한다.
단순 작업은 더 저렴해지고, 대규모 코드 생성은 더 비싸진다. - 둘째, 캐시 활용이 비용 최적화의 핵심이다.
같은 프로젝트에서 오래, 반복적으로 작업할수록 캐시 적중률이 높아져 실제 비용이 크게 절감된다.
Usage 패널에서 토큰 사용량을 모니터링하며, 작업 특성에 맞는 모델을 선택하는 것이 2026년 Codex 비용 관리의 핵심 전략이다.
📎 참고 출처
- OpenAI Codex rate card: https://help.openai.com/en/articles/20001106-codex-rate-card
- OpenAI Codex 개발자 요금: https://developers.openai.com/codex/pricing
- lilting.ch 분석: https://lilting.ch/en/articles/openai-codex-token-based-pricing-rate-card
'AI' 카테고리의 다른 글
| AI 에이전트는 어떻게 말할까? — 눈에 보이지 않는 IT 서비스의 대화법, API의 작동 원리 (0) | 2026.04.08 |
|---|---|
| 코딩 비용이 0에 수렴한 시대의 엔지니어링 원칙 — 에이전트와 함께 일하는 실전 패턴 완전 분석 (0) | 2026.04.07 |
| 에이전트 우선(Agent-First) 시대의 소프트웨어 엔지니어링: 스캐폴딩과 피드백 루프의 필연성 (0) | 2026.04.06 |
| 코덱스(Codex)가 클로드 코드(ClaudeCode)보다 나은 5가지 상황 - 병렬 에이전트·가성비·생태계 통합 (1) | 2026.04.01 |
| 코덱스(Codex) vs 클로드 코드(Claude Code) 최신 비교 — 2026년 AI 코딩 에이전트의 두 철학 (2) | 2026.03.27 |