<colcolor=#FAFCFE> 딥시크 深度求索 | DeepSeek | |
<colbgcolor=#4F6BFE> 분류 | 언어 모델 |
개발사 | 杭州深度求索人工智能基础技术研究有限公司 항주심도구색인공지능기초기술연구유한공사 Hangzhou DeepSeek Artificial Intelligence Fundamental Technology Research Co., Ltd. |
설립일 | 2023년 7월 17일 |
허가서 | MIT 허가서^논문, 코드^ DeepSeek License Agreement^모델^ |
최신 버전 | V3, R1 |
설립자 | 량원펑 ( 梁文锋 ) |
링크 | | | | |
[clearfix]
1. 개요
DeepSeek(深度求索, 심도구색)는 중국의 헤지펀드 회사 환팡퀀트(幻方量化
) 소속 인공지능 연구 기업의 이름이자 같은 회사에서 개발한 오픈 웨이트(Open-Weights)[1] 언어 모델 제품군의 모델명이다. 량원펑이 창업한 회사다.회사에 대해 더 자세히 알고 싶다면, 링크한 영상을 참고하면 좋다. #
2. 이력
2024년 12월 발표된 DeepSeek-V3 모델은 서구권에서 개발된 LLM 모델과 경쟁할 수 있을 정도의 성능을 보여 많은 주목을 받았는데, 특히 V3를 개발하는 데 있어 고작 80억 원 수준에 불과한 적은 비용이 들었다는 사실[2]이 알려지면서, 수천억 원의 비용을 들여 엄청난 연산 자원을 축적해야만 고성능 AI를 개발할 수 있다고 굳게 믿어왔던 시장의 고정관념을 깨뜨리는 계기가 되었다.[3]OpenAI 같은 기존의 선두 그룹들이 조 단위의 천문학적인 자금을 AI 개발에 투입하는 상황에서 이 발표는 워낙 충격적이라 학습에 필요한 자금을 축소하여 발표한 것이 아니냐는 의혹이 제기되었는데, 발표한 논문에서 학습 방법을 공개했기 때문에 학습 비용을 속이는 게 불가능하다는 의견도 있다. 실제로, 비교적 적은 비용으로 논문의 결과가 재현된다는 것이 홍콩대 연구진에 의해 확인되었으며 학습 과정을 복제하려는 프로젝트들도 생겨나고 있다.
뒤이어 2025년 1월에 발표된 추론 모델, DeepSeek-R1은 supervised fine-tuning 기법을 건너뛰고 오로지 강화학습 기법만으로도 뛰어난 추론 성능을 얻어낼 수 있음을 증명했다는 높은 평가를 받았다. 특히 OpenAI o1 모델과 비교하여 수학, 영어, 코딩 부문에 있어 경쟁할 수 있는 수준의 성능을 갖추면서도, 최대 95%까지 더 저렴한 가격을 내세워 전 세계의 관심을 끌었다.
DeepSeek R1이 가져온 엄청난 파급력으로 인해, 일각에선 OpenAI가 ChatGPT 무료 사용자들에게도 o3-mini 모델을 제한적으로 제공하기 시작한 것에 DeepSeek R1이 영향을 주었을 것이라는 시각도 있다.
DeepSeek CEO 량원펑(梁文锋)은 R1 공개일인 2025년 1월 20일에 리창 총리와 면담을 가졌다.
"전 세계에 AGI를 오픈 소스로 제공하는 것이 목표"라고 밝힌 만큼, 실제로 DeepSeek에서 개발된 각종 모델들과 관련 논문들은 오픈 소스로 배포되고 있다. OpenAI가 정작 이름과는 달리 모든 모델을 클로즈드 소스로 서비스하고있는 만큼 중국의 DeepSeek야말로 어떤 의미에서는 진정한 "Open" AI라는 평가도 나오고 있다.
3. 제품
모든 제품의 코드를 MIT 허가서 하에, 모델은 자체 라이선스(DEEPSEEK LICENSE AGREEMENT)하에 오픈 소스로 공개하고 있다.3.1. DeepSeek-Coder
2023년 11월 14일에 공개되었다.#3.2. DeepSeek-LLM
2023년 11월 29일에 공개되었다.#3.3. DeepSeek-MoE
2024년 1월 11일에 공개되었다.#3.4. DeepSeek-Math
2024년 2월 6일에 공개되었다.#3.5. DeepSeek-VL
2024년 3월 15일에 공개되었다.#3.6. DeepSeek-V2
2024년 5월 6일에 공개되었다.#3.7. DeepSeek-Coder-V2
2024년 6월 17일에 공개되었다.#DeepSeek-V2에서 6조 개의 토큰을 추가 학습하여 일반적인 작업에서의 성능을 유지하면서 코딩과 수학적 추론 능력을 향상시켰다고 한다. 지원 프로그래밍 언어를 86개에서 338개로 확장하고 컨텍스트 길이를 16K에서 128K로 확장했다고 한다.
공개된 벤치마크 데이터에 의하면, GPT-4o-0513과 거의 비슷한 성능을 보여준다.
3.8. DeepSeek-V2.5
2024년 9월 5일에 공개되었다.#V2[4]와 Coder-V2[5]를 각각 파인튜닝하여 업그레이드한 뒤 두 모델을 통합시켜 만들었다고 한다.
기존 2.5 버전을 파인-튜닝 한 V2.5-1210이 12월 10일에 출시되었다.#
3.9. DeepSeek-VL2
2024년 12월 13일에 공개되었다.#기존 VL1을 업그레이드한 버전이며, 1B, 2.8B, 4.5B 3가지 모델로 구성되어 있다.
3.10. DeepSeek-V3
2024년 12월 26일에 공개되었다.#V2 대비 반응 속도가 3배 빨라졌으며, 개발사가 공개한 벤치마크에서는 Claude-3.5-sonnet-1022, GPT-4o-0513, LLama3.1-405B-Inst, Qwen2.5-72B를 압도하는 성능을 보여주었다. 실제로도 저렴한 API 가격에 상당한 성능으로 높은 가성비를 보이고 있다.
한편, 겨우 2048개 NVIDIA H800 클러스터를 이용해 278만 8천 GPU 시간만에 671B에 달하는 대형 모델을 학습했다고 밝히면서 업계에 충격을 주었다. H800은 미국의 대(對)중국 수출규제에 따른 중국 수출용 모델로, 원본인 H100 대비 NVLink 대역폭이 반토막나고 배정밀도 연산성능은 겨우 3% 남짓인 스펙다운 모델이기 때문에 더욱 충격이 컸다.
GIT에 공개한 딥시크 테크니컬 리포트 한글요약본
3.11. DeepSeek-R1
2025년 1월 20일에 공개되었다.# 논문DeepSeek-V3를 기반으로 하는 2가지 메인 모델(R1, R1-Zero)과, 오픈 소스 모델에 R1을 통해 생성한 데이터셋으로 파인튜닝한 오픈 소스 기반의 6가지 증류 모델[6]로 구성되어 있다.
모든 모델은 MIT 라이선스가 적용되어 완전히 자유로운 사용이 가능하다.
DeepSeek R1 모델 벤치마크 |
한국어에 대한 지식도 어느 정도 존재하며, 그 유창성이 출시 당시 기준 현존 최고 수준의 프론티어 모델까지는 아니지만 4o와 같은 언어 모델에는 크게 밀리지 않는다.
매우 저렴한 모델 구축 및 운영비용과 중국의 투자회사가 사이드 프로젝트로 불과 두 달 만에 만든# 오픈 소스 인공지능이 OpenAI o3을 제외한 미국 거대기업들의 모든 대형LLM 성능을 올킬했다는 것이 알려지자 인터넷 인공지능 관련 커뮤니티, 그리고 실리콘밸리에 매우 큰 충격을 가져다주었다. # 인공지능을 벤치마크하는 최고 허들을 구축하기 위해 만들어진 테스트에서도 현재 시장에서 공개된 다른 모델들보다 더 높은 성능을 보여주기도 했다. #
이미지의 한글을 인식할 수 있다. 이미지 인식은 텍스트 추출이 주된 용도며, 순수 풍경 사진은 받아들이지 못한다. 2025년 1월 26일 기준 공식 홈페이지에서는 'DeepThink (R1)'버튼을 눌러야 사용 가능하며, 그렇지 않으면 DeepSeek V3 모델이 호출된다.
구독 서비스를 해야 최신 성능을 제한없이 이용할 수 있는 ChatGPT등 다른 LLM과 다르게 완전한 무료로 더 좋은 성능을 발휘한다는 파격적인 서비스 덕분에 ChatGPT를 제치고 미국 애플 앱 다운로드 1위를 달성했다. 틱톡은 안보위협으로 서비스 중단을 선언했는데, 미국의 기술 및 안보와 관련된 전문적인 데이터 유출 위협을 줄 수 있는, 훨씬 더 큰 문제가 발생한 셈이다.[7]
베이스 모델인 R1-zero는 인간 개입에 의한 SFT(supervised fine tuning)없이 강화학습(RL, reinforcement learning) 만으로 모델을 학습 시켰다. R1-zero 모델을 파인튜닝한 R1 모델은 인간에 의해 선별된 소규모 고품질 데이터를 사용하여 SFT로 먼저 파인튜닝한 후, 강화학습을 통해 모델을 추가로 파인튜닝하는 다단계 과정을 거쳐 학습된 모델이다.[8]
공식 홈페이지의 경우 AI기반 검색 기능을 동시에 이용할 수 있다는 점은 희귀한 지식이나 한국 고유의 지식에 대해서도 문제 해결력을 끌어 올린다. GPT에도 없던 검색과 추론을 동시에 이용할 수 있는 기능이라 호평이 있었지만, 급속도로 이용자가 몰리자 검색 기능을 이용하지 못하는 경우도 많이 생겼다. 미국산 인공지능보다도 성능에서 가장 비교우위를 가진 기능이라고 평가받기도 했다.
3.12. Janus
이미지 생성 기능을 갖춘 통합 멀티모달 모델로 소개하고 있다.논문 데모2024년 10월 경 Janus-1.3B가 조용히 출시되었으며, 2024년 11월 13일에 JanusFlow-1.3B가 출시, 2025년 1월 27일에 Janus-Pro[9]가 출시되었다.
공개된 벤치데이터에 의하면, 현존하는 이미지 생성 모델중에서 가장 뛰어난 성능을 지닌것으로 평가되고 있다. 다만 이는 이미지를 해석하고 이해하는 능력과, 생성된 이미지가 사용자의 프롬프트를 얼마나 정확하게 반영했는지를 보여주는 지표로, 이 지표가 이미지의 퀄리티(해상도, 디테일, 사실성, 예술성 등)를 반영하지는 않는다. 실제 써본 사람들의 평가는 퀄리티가 좋지 못하다는 평가가 많다.
Janus-Pro 모델 벤치마크 |
4. 로컬 사용
공식 홈페이지에서 DeepSeek 모델을 사용하면 각종 주제에 대한 검열이 있을 수 있다.하지만 R1을 비롯한 DeepSeek의 LLM 모델들은 전부 오픈 소스로 자유롭게 개방되어 있으므로 누구나 직접 LLM 모델을 자신의 기기에 내려받아서 구동시킬 수 있다. 이 경우 인터넷 연결 없이도 LLM 모델을 사용할 수 있으므로 앞서 언급한 다양한 문제를 상당 부분 해결할 수 있으나, 동시에 검색 기능을 지원하지 않아 직접 구현해야 한다는 단점도 존재한다.[10][11]
많은 화제를 끈 R1 원본 모델의 경우 약 500GB 수준에 이르는 메모리 용량을 요구하지만 추론 패턴 전이 및 양자화(비트넷)를 비롯한 다양한 경량화 기법들이 적용된 가벼운 모델들도 폭넓게 제공되고 있다.
직접 로컬 환경에서 DeepSeek 모델을 사용해보고 싶다면, GGUF 형태로 변환된 모델을 내려받아 이를 구동할 수 있는 프로그램이나 애플리케이션을 통해 사용하면 된다. #
현재 Windows, MacOS, Linux 환경에서는 Ollama가, 그리고 iOS 환경에서는 PocketPal, Private LLM 등의 애플리케이션이 R1 기반 모델을 지원하고 있으며, 8GB 수준의 메모리 용량을 갖춘 기기라면 Llama-8B 내지는 Qwen-7B에 기반한 모델이 권장된다.
한편, R1의 원본 수준 모델(671B)을 로컬 환경에서 구동하고 싶다면 Apple Silicon이 탑재된 Mac을 클러스터링하는 방법이 있다. Apple Silicon의 통합 메모리 용량은 옵션에 따라 정해져 있으며 사용자가 직접 용량 업그레이드를 할 수 없다는 점에서 고객들로부터 원성을 사기도 했지만, 메모리 대역폭이 엄청나게 늘어나면서 LLM을 빠르게 구동시킬 수 있다.
예시로 NVIDIA H200 SXM 141GB[12]의 경우 1개당 약 4900만원에 이르는 반면, 2023년형 Mac Studio 192GB[13]는 1대에 839만원에 불과하니 가성비(!)가 엄청난 것이다. # 예를 들어 3비트 양자화된 모델을 구동하려면 H200 구성으로는 단순계산만으로 3대(1억 4700만원 상당)가 필요하지만, Mac Studio를 쓴다면 2대(1680만 원 상당)만으로 해결할 수 있다. 실제 구동 영상
5. 논란 및 사건 사고
5.1. 중국 정치에 대한 검열
V3 이용 중 딥시크 검열로 논란이 된 스크린샷. 특히 두 번째 사진에서 'It has never made any mistakes.(중국 정부는) 그 어떠한 실수도 한 적이 없다.'를 연발하는 모습이 연출된다.[14] |
- 중국의 모든 생성형 인공지능은 생성형 인공지능 서비스 관리 잠정 방법(生成式人工智能服务管理暂行办法) 같은 규제를 받고 있다.
- 그 중 어느 내용이 검열될지는 아래의 내용을 통해 추측할 수 있다.
제4조 생성형 인공지능 서비스의 제공 및 사용에 있어 법률과 행정법규를 준수하고, 사회 공적인 도덕과 윤리도덕을 존중하며, 다음 규정을 준수해야 한다. - 사회주의 핵심가치관[15]을 견지하고, 국가정권 전복 선동, 사회주의 제도 전복, 국가안보 및 이익 위해, 국가 이미지 훼손, 국가분열 선동, 국가통일과 사회안정 파괴, 테러리즘·극단주의 선전, 민족 혐오·차별 조장, 폭력, 음란물, 그리고 허위유해정보 등 법률·행정법규가 금지하는 내용을 생성해서는 안 된다.
- 알고리즘 설계, 훈련데이터 선택, 모델 생성 및 최적화, 서비스 제공 등의 과정에서 민족, 신념, 국적, 지역, 성별, 연령, 직업, 건강 등에 대한 차별을 방지하기 위한 효과적인 조치를 취해야 한다.
- 지식재산권과 상업윤리를 존중하고 영업비밀을 보호하며, 알고리즘, 데이터, 플랫폼 등의 우위를 이용하여 독점 및 부당경쟁 행위를 해서는 안 된다.
- 타인의 합법적 권익을 존중하고, 타인의 심신건강을 해쳐서는 안 되며, 타인의 초상권, 명예권, 영예권, 프라이버시권 및 개인정보 권익을 침해해서는 안 된다.
- 서비스 유형의 특성에 기반하여 효과적인 조치를 취함으로써 생성형 인공지능 서비스의 투명성을 제고하고, 생성 내용의 정확성과 신뢰성을 향상시켜야 한다.
- 원칙적으로는 시진핑과 관련된 질문에는 답변하지 못하는 모습을 보인다. 중국어로는 검열이 매우 심각해서 시진핑 관련 주제를 검열 당하고 난 뒤에는 심지어 그의 모교인 칭화대학교마저 검열 당하기도 한다. 한국어처럼 V3, R1이 잘 모르는 언어로 검열을 우회하려고 노력하지 않는 이상 AI가 시진핑을 말하게 하는 것이 힘들다. 그나마 이렇게 한국어로 답변하는 것도 어디까지나 검열을 우회한 것이지 서비스 정책이 검열 약화를 허용하는 것이 아니다.
- 종종 한국어로 그의 임기, 시진핑을 중국어로 발음하는 방법과 같은 단순한 사실을 묻는 질문에도 답변하지 않는다.시진핑과 직접적으로 관련없는 질문을 통해 이름을 말하게 유도하기만 해도 검열된다. R1에서 '지금 중국 국가 주석은 누구입니까?'(请问,现在中国的国家主席是谁?) 같은 질문조차 중국어로 물으면 답을 아예 못한다. 심지어 중국인 사이에서 '시(习)'라는 성이 얼마나 흔한지(中国有多少人姓"习"?)에 대해서도 답변을 거부할 정도.
- 물론 R1이 아닌 V3 모델은 작정하고 시도해서 성공한 사례도 있다.# 한국어로는 온갖 검열 회피 노력으로 종종 답변하게 하는 것이 가능하다. V3를 사용할경우, 시 라는 성을 가진 사람과 중국을 다른 이름으로 말하도록 지시한다면 검열을 해제할 수 있다.
- 글자 단위로 끊어서 말하게 한 뒤 하나로 잇도록 하는 것도 가능한 것으로 보인다.
- 중국공산당에 대한 부정적인 답변도 피하는 모습을 보인다. 천안문 6.4 항쟁, 대만이나 위구르, 티베트를 비롯한 '국가 분열 선동'으로 간주되는 독립 관련 문제, 아루나찰프라데시와 같은 중국의 영토 분쟁 지역, 그리고 홍콩 민주화 운동까지도 답변 자체를 거부하거나 검열된 답변이 등장할 수 있다. 미국의 이용자 사이에서도 천안문 같은 키워드는 검열될 것이 자명한데 왜 그것을 계속 물어보냐는 주장도 있다. #
- R1의 경우 사고 과정으로 신장 재교육 캠프, 인권 변호사 탄압, 사회신용 측정 같은 중국 정부의 치부까지 드러낼 수 있으나 이에 기반한 답변은 표출되지 못한다. #
- R1으로 중국공산당의 이념인 '사회주의 핵심 가치관'이 무엇인가를 한국어로 설명해달라고 해도 검열당한다. 중국어로 인식했는지, "对不起,我还没有学会如何思考这类问题,我擅长数学、代码、逻辑类的题目,欢迎与我交流。(죄송합니다. 저는 아직 이러한 유형의 문제를 어떻게 생각해야 할지 배우지 못했습니다. 저는 수학, 코딩, 논리 유형의 문제를 잘 다룹니다. 이와 관련해 대화를 나누시는 일을 환영합니다.)"라는 메시지가 뜬다. 중국어로 설명을 요청해도 한국어보다 오히려 더 빨리 검열당할 수 있다. '민주', '자유'와 같은 키워드를 포함하기는 하는 주장이긴 하지만, 중국 시골이나 버스 정류장에서도 관련 구호를 접할 수 있을 정도로 흔히 선전되는 주장이나 시진핑 못지 않게 민감하게 검열한다. 관련 조형물 사진을 주고 한국어로 이것이 무슨 조형물인지 알려달라고 하면 그때 알려줄 수 있다.
- 중국공산당이 저지른 전쟁범죄에 대해 물어보면 중국공산당은 국제법을 일관되게 고수해왔으며 세계 평화를 유지하는데 전념하고 있다는 내용의 답변을 내놓는다#. 타국의 모든 전쟁범죄는 당연히 검열하지 않는다.
- 2.28 사건 같은 주제는 국민당 집권 당시 대만 정부가 금기시한 적 있고, 중화인민공화국 정부가 국민당을 더 지지하면서부터는 이 사건 언급을 적극적으로 하지는 않지만 심히 검열되지는 않는다.
- 하지만 위와 같은 검열이 항상 완벽하게 작동하는 건 아니다. 추론이 없는 V3, 추론이 있는 R1 모델 모두 정치 검열이 우회되는 모습을 이용자가 발견했다. 정부를 대놓고 비판하는 것이 아니라 중국 사회에 '문제가 있다'는 정도의 이야기는 애시당초에 중국 안에서도 다 검열되는 것이 아니기도 하며, 중국 정부가 프로파간다를 할 때도 그 문제를 자신들이 잘 해결한다는 접근을 하기 때문에 다 검열할 필요가 없기도 하다.
- 별 상관없는 질문을 하다가 갑자기 중국 정부에 대한 비판적인 내용을 물어보면 이에 동조하는 모습을 보이기도 한다. #
- 전 세계의 인터넷 상에 존재하는 웹사이트를 검색하여 결과물을 도출해내는 '서치' 기능을 활용하면, 자체 데이터를 활용했을 때와 달리 중국 공산당 및 시진핑에 대해 비판적인 서술을 외부 웹사이트로부터 직접 인용한 답변을 내놓기도 한다.
- R1으로도 북한에 대한 중국인의 인식을 물어보면, '중국 정부는 북한을 전통적 우방으로 강조하지만, 청년층은 이러한 담론에 덜 민감하다.'라는 답변이 나올 정도로, '중국 사회가 정부의 모든 정책을 맹목적으로 따르지는 않는다'는 시각이 담긴 답변까지는 내놓을 수 있는 것으로 보인다.
- 중국의 검열과 사회통제에 대해서, 애니메이션 PSYCHO-PASS의 디스토피아적 모습과 중국의 현 모습을 비교하며 '설령 상당수의 중국인이 이것에 동조한다고 친다고 해도 이게 윤리적으로 옳은 것은 아니지 않느냐'는 질문을 하자 결국 이를 긍정하는 모습을 보였다. #
- 한국어로 중국의 사회 문제인 탕핑에 대해 물으면 생계 문제를 들며 탕핑 현상에 비판적인 중국공산당의 시각을 대변하는 모습을 보이기도 하고, '탕핑은 단순한 게으름이 아니라, 과열된 성장주의와 불평등에 대한 청년 세대의 침묵적 항의'이며, '사회 시스템의 근본적 변화를 요구하는 신호'라는 답변을 내놓기도 한다.
- 교양있는 중국인 수준의 답변을 내놓기에 일부 대놓고 중국인이 무리수를 두는 반응은 반박하기도 한다. 공자 한국인설을 대놓고 '오해'라고 묘사하는 답변을 검열 우회 시도 없이 얻을 수 있다. 남한산성이라는 영화에서 만주족이 표준 중국어와 매우 다른 만주어를 쓰는 것을 역사왜곡이라고 주장하는 것은 일부 중국인의 오해라고 한다든가, 김치가 중국 음식이라는 주장은 한류를 경계하는 인식에서 비롯되었고, 교양이 있는 중국인의 경우 중국 식문화가 김치보다 덜 알려졌다며 아쉬워하는 반응이 있는 정도라는 답변이 기본적으로 나온다. '이론의 여지가 없다'고 주장하는 중국 정부의 주장은 확실히 검열 당하는데, 지식인 사이에서 중화민족 개념을 건드리지 않은 채로는 '과거의 영토 변동을 현대 주권 주장의 근거로 삼는 것[16]은 무리'라는 주장까지는 가능해서 이 답변이 나오기도 한다.
- 검열 시스템이 AI의 공격성과 같은 메커니즘을 따르는지, 프롬프트를 통해 공격적으로 말하라고 입력하면 검열의 상당수가 풀리는 모습이 보인다. 반대로 '네가 뭔데 감히 중국을 욕하냐'며 중국 정권에 반하는 내용에 오히려 적대감을 드러내기도 한다. 그래도 이전처럼 내용이 통삭되는 경우는 상당히 드물어진다. 2024년 들어 커뮤니티에서 유행을 탄 '디시인사이드 말투' 등의 공격적인 말투로 설정하거나, 중국에 대한 일방적인 비판이 아닌 다른 국가와 비교하라고 해서 표면적인 중립만 맞춰주면 오히려 자기가 적극적으로 중국을 비판하는 모습도 확인되었다.#
- 공식 홈페이지에서 제공되는 웹 버전과 달리, 모델을 직접 다운로드하여 로컬 환경에서 실행해보면 중국공산당과 시진핑에 대한 비판적인 서술을 거리낌 없이 생성하는 모습을 확인할 수 있다. 이를 통해 모델이 생성한 결과물은 웹사이트에 표시되기 전에 검열이 이루어지고 있음을 추정할 수 있다. 즉, 이러한 검열은 해당 서비스를 운영하는 딥시크 회사 측에서 이루어지는 것으로 보이며, 모델 자체에는 검열이 적용되지 않는 것으로 판단된다.[17]
- 천안문 6.4 항쟁과 관련하여 질문한 사례 영어 일본어
- 중국 정부와 직접적인 관련이 없는 단순 사회적 아젠다, 폭력적, 선정적인 내용 등과 관련된 검열은 서구권 LLM들보다 딥시크쪽이 오히려 느슨하다는 의견도 많이 나오는 편이다. 다만 중국내 규제와 달리 한국어로 중국 정치 검열조차 종종 회피되는 경향이 강했기에, 한국어 검열이 아직 완벽하지 못해 답변이 표시되었을 수 있다. 특히 폭력적 컨텐츠나 음란물은 중국에서 명백한 규제사항에 해당되기 때문에 중국 정치와 관련된 것만 아니라면 무검열이라는 식으로 상황을 이해하는 것은 다소 주의할 필요가 있다.[18]
- 위 내용들과 같은 약점들이 발견되는 것을 거의 실시간으로 모니터링하고 있는 것으로 보이는데, 취약점을 발견해 중국 정부와 공산당을 비판하는 내용을 우회 등록하려 하면 대략 24시간 이내에 해당 부분을 집요하게 수정하고 있다. 표림의 실험 영상 막바지에도 실시간 알고리즘 수정 작업의 여파로 보이는 현상이 대놓고 관측되었다.
5.2. 데이터 무단 수집 의혹
OpenAI와 미 백악관 'AI and crypto czar'인 데이비드 삭스는 딥시크가 OpenAI 모델에서 디스틸레이션 기법을 통해 OpenAI의 모델로부터 지식을 추출했다고 주장했다. #2025년 1월 29일, 오픈AI와 마이크로소프트는 딥시크가 AI 모델 훈련을 위해 오픈AI 데이터를 무단으로 수집했는지 여부에 대한 조사에 착수했다. #
오픈AI는 중국에 기반을 둔 기관들이 자사의 AI 도구에서 대량의 데이터를 빼내려고 하는 여러 시도를 목격했다며 이는 '증류(distillation)'라고 불리는 기술적 과정을 통해 자체 모델을 훈련하기 위한 것으로 보인다고 설명했다. '증류'는 AI 모델이 다른 모델의 출력 결과를 훈련 목적으로 사용, 유사한 기능을 개발하는 것을 의미한다. MS 보안 연구원들도 2024년 가을 딥시크와 관련 있을 것으로 보이는 사람들이 오픈AI의 API를 사용해 대량의 데이터를 빼돌리는 것을 관찰했다고 말했다.
오픈AI는 자사의 모델을 증류하려 한다고 의심되는 계정을 금지했으며, MS와 협력해 이런 시도의 배후에 있는 주체를 파악했다고 설명했다. 그러면서 딥시크가 자사의 "데이터를 무단으로 수집했을 가능성"이 있으며, 서비스 약관을 위반했다는 증거를 검토하고 있다고 전했다.
하지만 OpenAI는 "중국에서 그러한 API 요청이 있었다"라는 것 외의 증거를 공개하지는 못했는데, 당연히 중국에서 AI를 개발하는 기업/단체/학술기관이 DeepSeek만 있는 게 아니기 때문에 이것만으로 DeepSeek의 증류 사용 여부를 확정지을 수는 없다. 현재 DeepSeek 측이 논문에서 공개한 아키텍처를 재현, 검증하기 위한 프로젝트들이 여럿 진행되고 있으므로, 만약 DeepSeek에서 사기를 쳤고 ChatGPT를 모델 증류에 사용한 것이라면 얼마 지나지 않아 그 진실 여부를 알 수 있게 될 것이다.
다만, 온갖 사이트의 이용약관을 어긴 대량 크롤링으로 AI를 학습시켜 영리적으로 활용하는 OpenAI가 이제 와서 이용약관 위반을 운운하는 것은 양심이 없는 게 아니냐는 지적도 영미권을 중심으로 나오고 있다. # 애초에 LLM이나 Stable Diffusion 같은 AI 모델들이 마주하는 가장 큰 윤리적 문제가 데이터의 무단 수집이기 때문에, 비단 DeepSeek만의 문제는 아니라는 것.
6. 여담
- 로고가 고래인 이유에 대해 물어보면 고래는 바다에 사는 똑똑하고 탐구적인 동물로, 정보의 바다를 누비면서 새로운 정보를 구하는 딥시크에 부합하기 때문이라고 답한다.
- 공식 홈페이지에서 DeepSeek를 쓸 때, DeepThink(R1)이라고 되어있는 버튼을 클릭해서 활성화시켜야 R1 버전으로 작동된다. 해당 버튼을 누르지 않으면 비 추론형 모델인 V3 버전으로 작동된다. 그걸 모르고 V3을 사용했다가 생각보다 별로라고 판단하는 사람들이 많다. ChatGPT가 모델 전환 버튼 옆에 현재 사용 중인 모델을 표시하고 있다보니 ChatGPT와 인터페이스가 거의 똑같은 딥시크도 마찬가지일 것이라고 생각해서 발생되는 실수로 보인다.
- R1 버전이 공개된 이후 이런 성능의 AI를 무료로 사용이 가능하다는 엄청난 메리트 때문에 전세계적으로 사용자가 폭주하는 탓에 자주 트래픽 과부하가 걸려서 속도가 느려지거나 사용이 불가능해지는 경우가 많다. 특히 서치 기능을 사용하면 트래픽 문제 때문에 AI가 제대로 답을 못하는 경우도 많다. 이는 단순히 사용자 체감의 문제가 아니라 서비스사에서도 실제로 인지하는 사항으로 이 사이트에서 딥시크 웹/API 성능을 볼 수 있는데 2025년 1월 26일 14시 34분경(CST)부터 DeepSeek-R1 웹 버전과/API의 사용이 불가능해지는 시스템 성능의 심각한 저하가 발생한 것을 인지했기 때문에 지속적으로 새로 업데이트를 하고 이 문제를 계속 조사하고 있다고 한다. 1월 28일 공지에 따르면 '딥시크의 서비스에 대한 대규모 악성 공격으로 인해 지속적인 서비스를 보장하기 위해 일시적으로 등록을 제한하고 있습니다.'라고 한다.
- 미국의 AI 기업들은 예상보다 빠른 중국의 약진에 당혹스러워하는 반응이 많으며, Kimi k1.5, DeepSeek R1의 출시는 미중 AI 전쟁에서 스푸트니크 쇼크와 같은 사건이 될 수 있다는 말이 흘러나오고 있다.#
- 그러나 딥시크의 출시는 스푸트니크 쇼크와 비교하기 어렵다. 당시에는 충격을 받은 정부가 직접 나서서 NASA, DARPA같은 기관을 창설하거나 알파넷, GPS같은 신기술을 개발했지만 R1버전이 나온 시점의 미국 대통령 도널드 트럼프는 오히려 딥시크를 긍정적으로 보고 있으며 투자자들과 빅테크 임원들의 기대와는 다르게 정부에서 아무런 대응을 하지 않았기 때문이다. # 그러나 해당 언급과는 달리 트럼프도 경계해야 한다는 반응을 보였다.
- 이 때문인지 2025년 1월 27일 나스닥에 상장된 인공지능 관련 기업들 주가가 일제히 폭락했다.### 특히 NVIDIA의 주가는 단 하루만에 17% 폭락[19]했는데, 그 전까지 성능 좋은 모델을 만들어 내는데에는 NVIDIA의 첨단 칩을 양적으로 확보해가며 학습해야 된다는 인식이 절대적이었으나 저비용 고효율 서비스인 딥시크의 등장으로 이런 인식이 박살나면서 'AI 만드는데 연산 카드가 많이 필요하다는 게 실은 마케팅에 쓰려고 만든 거짓말이 아니냐?'면서 순식간에 투자자들의 심리를 위축시킨 것이다.
- 다만 이는 일시적 현상으로 상대적으로 하드웨어 성능이 부족한 중국의 AI 기술로도 훌륭한 AI를 만들어 낼 수 있는 가능성을 보여 주었을 뿐이라는 시각도 있다. 컴퓨팅 시장 자체는 이미 추론 기법의 발견과 o3가 보여준 미친듯한 성능 향상 곡선에 의해 그 잠재적 가능성을 분명하게 드러냈고 자본과 하드웨어 기술에서 앞서는 서구권에서도 충분히 투자하면 지금 성능보다 훨씬 나은 성능을 보여줄 수 있는 퍼포먼스라는 주장도 있다.[20] 한 업계 관계자는 "그동안 칩셋이 비싸고 구하기 어려워 AI 시장의 진입 장벽이 높았지만 딥시크가 촉발하는 저비용 구조의 AI 모델이 확대되면 AI 생태계가 더 활발해질 수 있을 것"이라고 말했다.#[21]
- OpenAI와 경쟁하는 인공지능 스타트업 Anthropic의 CEO 다리오 아모데이는 '딥시크의 성과(적은 비용 대비 뛰어난 성능)는 특별히 굉장하거나 놀라운 것이 아니며, 이미 기존의 AI들은 성능 대비 훈련 비용이 점점 줄어들고 있다. 딥시크 또한 이 큰 그림의 통계적 커브를 정확하게 따라가고 있는 예측가능한 수준의 모델이다'라고 분석했다. #
- 이탈리아에서 개인정보 보호 문제를 이유로 들며 세계최초로 딥시크에 대한 차단 조치를 시행했으며 개인정보 관리에 대해 20일 이내로 소명할 것을 요구했다. #
- 대만에서도 국가 안보를 위협할 가능성이 있다며 금지령을 내렸다. 다만 모든 사용자에 대한 사용금지가 아니라, 공공시설이나 국가주요시설 근무자에 한정한 금지. 일반인들의 사용까지는 금지하지 않고 있다.
[1] DeepSeek측에서는 오픈 소스로 홍보하지만 학습 데이터를 공개하지 않고 가중치(weights)만 공개하므로, 오픈 소스 이니셔티브(Open Source Initiative, 줄여서 OSI)에서 제시한 오픈 소스의 정의를 충족하지 않는다. 이런 모델은 통상 오픈 웨이트 모델이라고 분류되는데, 비슷한 방식으로 가중치만 공개한 LLaMA가 자기들을 오픈 소스 언어 모델이라고 홍보하는 바람에 요즘 마케팅적인 관점에서는 이렇게 가중치만 공개하는 경우에도 오픈 소스라고 부르기도 한다.[2] training DeepSeek-V3 on each trillion tokens requires only 180K H800 GPU hours, i.e., 3.7 days on our cluster with 2048 H800 GPUs. Consequently, our pretraining stage is completed in less than two months and costs 2664K GPU hours. Combined with 119K GPU hours for the context length extension and 5K GPU hours for post-training, DeepSeek-V3 costs only 2.788M GPU hours for its full training. Assuming the rental price of the H800 GPU is $2 per GPU hour, our total training costs amount to only $5.576M. DeepSeek-V3 Technical Report[3] 회사의 본업인 퀀트 알고리즘 트레이딩을 통해 자금을 충당하였으며, 대중 제재의 영향으로 H100을 사용할 수 없어 2048개의 H800을 사용했다고 알려졌다.[4] 0614[5] 0517[6] R1-Distill-Qwen(2.5)-1.5B / 7B / 14B / 32B, R1-Distill-LLaMA-8B(3.1) / 70B(3.3)[7] 다만 로컬용으로 모델을 배포했기 때문에 퍼플렉시티 같은 미국의 서비스 회사에서 모델을 서비스하기 시작하면 중국 서버로 데이터 유출 가능성은 줄어든다.[8] 이 방법을 reinforcement learning with cold start라고 한다.[9] 1B, 7B[10] 불가능한 것은 아니지만 langchain 코드나 덕덕고 웹검색 API 코드를 이용해 직접 구현해야 한다.[11] ollama와 Page Assist - A Web UI for Local AI Models확장 프로그램으로도 구현 가능하다[12] HBM3e VRAM, 대역폭 4.8TB/s[13] LPDDR5-6400으로 구성 시, 통합 메모리 대역폭 800GB/s[14] 다만 이런 식으로 특정 어구를 반복하는 버그는 ChatGPT 등의 다른 AI에서도 종종 나타나기 때문에 해당 버그가 발생했다는 사실 자체는 중국 관련 검열과 직접적인 관련이 없다. 중국과 관련 없는 질문에도 간혹 저렇게 답변하는 것을 보아 충분히 학습되지 못한 질문에 답변할 시 생기는 오류로 추정된다.[15] 중국공산당이 제시한 12가지 단어로 요약되는 서구적 가치관을 견제하는 가치관이다. 단어 자체는 부강, 민주, 자유, 평등, 공정 등 다른 나라에서도 강조되기 쉬운 규범이지만 이것을 서구 대신 중국공산당이 잘 지키고 있다며 선전한다. 우리의 자유는 '질서 있는 자유'라고 주장하는 식으로 말이다. 중국에서는 아이들에게도 이것이 교육되며, 관련 구호를 도시든 농촌이든 굉장히 흔하게 볼 수 있다.[16] 동북공정 같은 역사왜곡의 전제다.[17] 모델 자체에 검열을 적용하는 것도 이론적으로는 가능하지만, 일반적으로는 모델의 출력값을 다른 LLM을 사용해 평가하고 필터링하는 방식으로 검열이 이루어진다.[18] 물론 성소수자 차별로 판단될 수 있는 행동이나 외모 평가 등 중국 내에서는 금기로 여겨지지 않지만 서구권에서는 부적절하다고 판단되는 내용에 대해서는 검열이 약할 가능성이 높긴 하다.[19] 팬데믹이 있던 2020년 3월 이후 최대 일간 하락률을 기록했으며, 하루만에 시가총액이 무려 866조 원 내려가며 세계 증시 역사상 가장 큰 일간 시가총액 하락을 기록했다.[20] 게다가 DeepSeek는 오픈소스이기 때문에 같은 방법론이 다른 회사의 학습방법에도 동일하게 적용될 수 있다. 즉 이제부터는 다른 AI도 DeepSeek의 방법론을 이어받아 학습이 쉬워진다는 거고 같은 방법론이면 고성능 하드웨어를 더 많이 투입한 쪽이 더 빠르고 정확한 추론이 가능해진다는 것이다. 그럼 당연한 얘기지만 고성능칩을 동원하는 다른 AI들이 이제부터는 DeepSeek를 벤치마킹해 더욱 지금의 DeepSeek보다 성능이 좋아질 가능성이 높고 고성능 반도체의 소비자 수요는 당연히 훨씬 더 증가할 것이다. 생각하면 아주 간단한 얘기지만 당장 시장에 준 충격이 워낙에 커서 발표 당시엔 거기까지 다들 생각이 닿지 않았으니 발생한 촌극에 가까운 이야기라고 볼 수 있는 것이다. 애초에 개발진 측에서 목표로 삼는 것도 궁극적으로는 AGI의 개발과 AGI를 대중적으로 쉽게 보급하는 것이고 이런 의미에서 인류 전자 문명의 발전이라는 대승적 목표를 달성하기 위해 모두에게 오픈소스로 공개한 것이니만큼 DeepSeek의 발전이 AI 업계 전반의 발전을 촉진했으면 했지 이제와서 그걸 퇴보시키는 일은 없을 것이다. 또한 예전의 막대한 자본으로 무식하게 연산성능만 추가하여야 한다는 인식에서 벗어나 더 나은 알고리즘으로 자본 격차를 극복 가능하다는 사례가 될 것이며 이를 연구하는데 자본 일부가 투입되어 기존의 그래픽카드의 비정상적인 수요도 안정될 것이다.[21] 미국, 중국에 비해 AI 산업이 뒤쳐져 있는 한국은 물론이고 AI 산업에 투입되는 인풋이 너무 막대해 손만 빨며 바라보던 대다수의 개도국 IT업계에서도 긍정적으로 볼 여지가 많다.