| | ||
| {{{#!wiki style="margin:0 -10px -5px" {{{#000,#fff {{{#!folding [ 펼치기 · 접기 ] {{{#!wiki style="margin:-6px -1px -11px" {{{#000,#e5e5e5 | <colkeepall> 제품군 | |
| 서비스 | ChatGPT(ChatGPT/기능 · 사용법) · OpenAI(인공지능) · Operator · Codex · Sora · Atlas | |
| 모델 | GPT GPT-1 · GPT-2 · GPT-3 · GPT-4 · gpt-oss · GPT-5 · GPT-6개발 중o-시리즈 o1 · o3 · o4-mini | |
| DALL·E · Codex · CLIP · Whisper · Voice Engine · Sora · gpt-image · SearchGPT · CUA | ||
| 관련 인물 | ||
| 일론 머스크 · 샘 올트먼 · 미라 무라티 · 일리야 수츠케버 · 안드레 카파시 · 그렉 브록만 · 다리오 아모데이 | ||
| {{{#!wiki style="margin:-0px -10px -5px" {{{#!folding [ 펼치기 · 접기 ] {{{#!wiki style="margin:-5px -1px -11px; word-break:keep-all" | OpenAI | GPT (1/2/3/4/oss/5/6개발 중) · (o1/o3/o4) |
| 구글 | Gemini(1/2/3) · Gemma · LaMDA · PaLM 2 | |
| Anthropic | Claude (Opus/Sonnet/Haiku) | |
| xAI | Grok | |
| 메타 | LLaMA | |
| 기타 | HyperCLOVA(네이버) · 카나나(카카오) · 삼성 가우스(삼성전자) · Exaone(LG AI연구원) · 믿:음(KT) · A.X(SK텔레콤) · Phi(Microsoft) · OpenELM(Apple) · DeepSeek · Qwen(알리바바) · 어니봇(바이두) · Kimi(Moonshot AI) | }}}}}}}}} |
| gpt-oss Generative Pre-trained Transformer Open Source Software | |
| 출시일 | 2025년 8월 5일 |
| 개발사 | OpenAI |
| 기능 | 언어 모델 |
| 라이선스 | 아파치 라이선스 |
| 링크 | |
1. 개요
OpenAI가 개발한 오픈소스 언어 모델. 2019년 GPT-2의 공개 이후 6년만에 오픈소스로 공개된 모델이다.2. 모델
데모 사이트둘다 추론형 모델이며, 추론 깊이를 조절 가능(low,medium,high)하고, MoE 아키텍쳐가 적용되었다. 최대 128,000 토큰의 대화를 할 수 있다.
화학, 생물학, 방사선학, 핵(CBRN)과 관련된 유해한 데이터는 엄격히 배제시켰으며, 숙고적 정렬 및 지침 계층을 사용해 위험한 프롬프트를 거부하고, 프롬프트 추출을 방어하도록 훈련했다고 한다.
2.1. gpt-oss-120b
120B 크기의 모델로, o4-mini와 매우 유사한 성능을 보여준다.128개의 전문가 모델을 통합했고 한번 작동 시 5.1B 크기의 영역이 활성화 된다. GPT-4o나 o4-mini에 적용된 최신 토크나이저를 사용해 훈련했다.
Unsloth가 제시한 권장 VRAM 크기는 약 66GB로, 공식적으로는 딱 1개의 H100 80GB 하드웨어에서 무난하게 돌릴 수 있는 크기라고 설명하고 있다. 만약 VRAM 사양이 달리더라도 총 메모리 크기가 권장 메모리 이상이면 느리지만 구동이 가능하다.
2.2. gpt-oss-20b
20B 정도의 모델로, o3-mini와 매우 유사한 성능을 보여준다.32개의 전문가 모델을 통합했고 한번 작동 시 3.6B 크기의 영역이 활성된다. 120B보다 더 빠른 답변속도를 원할경우, 추천하는 모델이다.
Unsloth가 제시한 권장 VRAM 크기는 약 13GB로, VRAM 16GB 이상을 탑재한 그래픽카드이면 원활이 구동할 수 있으며, 총 메모리가 16GB 이상을 충족하면 느리게나마 구동 가능하다.