나무모에 미러 (일반/어두운 화면)
최근 수정 시각 : 2025-02-01 23:57:38

DeepSeek

DeepSeek(AI)에서 넘어옴

생성형 인공지능
{{{#!wiki style="margin:-0px -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-5px -1px -11px; word-break:keep-all"
유니모달 모델 기반
<colkeepall> 텍스트 [[소설|
소설
]] NovelAI · AI Dungeon · AI Novelist
대화형 [[챗봇|
챗봇
]] ChatGPT · Microsoft Copilot · Gemini · CLOVA X · Cue: · Inflection AI · Mistral AI · Grok
[[언어 모델|
언어모델
]] GPT · LLaMA · Gemma · Claude · Phi · Exaone · OpenELM · Qwen · DeepSeek
코드 [[코드#컴퓨터 소프트웨어|
코드
]] GitHub Copilot · Devin · Phind · DeepSeek
이미지 [[그림 인공지능|
그림
]] Midjourney · DALL·E · Artbreeder · NovelAI Image Generation · Stable Diffusion · FLUX.1 · Gaugan2 · Dream by WOMBO · Adobe Firefly · Deep Dream Generator
[[영상 인공지능|
영상
]] Stable Video · Sora · Meta Movie gen · Lumiere · Veo · Runway AI · Luma Dream Machine · Kling AI
[[모델링|
모델링
]] LATTE3D
오디오
소리
[[음성|
음성
]] A.I.VOICE · DeepVocal · Voice Engine
[[음악|
음악
]] Suno · Stable Audio · Udio · AIVA
멀티모달 모델 기반
대화형
+이미지
Exaone 3.5 · Samsung Gauss
+음성/이미지
GPT-4o · GPT-5 · Gemini · o1 · o3 · DeepSeek
+에이전트
Galaxy AI · Claude 3.5 Sonnet
행위
동작
[[지능형 에이전트|
에이전트
]] Apple Intelligence · Project Astra · Google Jarvis
[[인공지능 로봇|
체화
]] Tesla optimus · Google RT-X · Project Gr00t
}}}}}}}}}
<colcolor=#FAFCFE> 딥시크
深度求索 | DeepSeek
파일:DeepSeek 로고.svg
<colbgcolor=#4F6BFE> 분류 언어 모델
개발사 杭州深度求索人工智能基础技术研究有限公司
항주심도구색인공지능기초기술연구유한공사
Hangzhou DeepSeek Artificial Intelligence Fundamental Technology Research Co., Ltd.
설립일 2023년 7월 17일
허가서 MIT 허가서^논문, 코드^
DeepSeek License Agreement^모델^
최신 버전 V3, R1
설립자 량원펑 (
梁文锋
)
링크 파일:홈페이지 아이콘.svg | 파일:GitHub 아이콘.svg파일:GitHub 아이콘 화이트.svg | 파일:허깅페이스 아이콘.svg |

1. 개요2. 이력3. 제품
3.1. DeepSeek-Coder3.2. DeepSeek-LLM3.3. DeepSeek-MoE3.4. DeepSeek-Math3.5. DeepSeek-VL3.6. DeepSeek-V23.7. DeepSeek-Coder-V23.8. DeepSeek-V2.53.9. DeepSeek-VL23.10. DeepSeek-V33.11. DeepSeek-R13.12. Janus
4. 로컬 사용5. 논란 및 사건 사고
5.1. 중국 정치에 대한 검열5.2. 데이터 무단 수집 의혹
6. 여담

[clearfix]

1. 개요

DeepSeek(, 심도구색)는 중국의 헤지펀드 회사 환팡퀀트(
幻方量化
) 소속 인공지능 연구 기업의 이름이자 같은 회사에서 개발한 오픈 웨이트(Open-Weights)[1] 언어 모델 제품군의 모델명이다. 량원펑이 창업한 회사다.

회사에 대해 더 자세히 알고 싶다면, 링크한 영상을 참고하면 좋다. #

2. 이력

2024년 12월 발표된 DeepSeek-V3 모델은 서구권에서 개발된 LLM 모델과 경쟁할 수 있을 정도의 성능을 보여 많은 주목을 받았는데, 특히 V3를 개발하는 데 있어 고작 80억 원 수준에 불과한 적은 비용이 들었다는 사실[2]이 알려지면서, 수천억 원의 비용을 들여 엄청난 연산 자원을 축적해야만 고성능 AI를 개발할 수 있다고 굳게 믿어왔던 시장의 고정관념을 깨뜨리는 계기가 되었다.[3]

OpenAI 같은 기존의 선두 그룹들이 조 단위의 천문학적인 자금을 AI 개발에 투입하는 상황에서 이 발표는 워낙 충격적이라 학습에 필요한 자금을 축소하여 발표한 것이 아니냐는 의혹이 제기되었는데, 발표한 논문에서 학습 방법을 공개했기 때문에 학습 비용을 속이는 게 불가능하다는 의견도 있다. 실제로, 비교적 적은 비용으로 논문의 결과가 재현된다는 것이 홍콩대 연구진에 의해 확인되었으며 학습 과정을 복제하려는 프로젝트들도 생겨나고 있다.

뒤이어 2025년 1월에 발표된 추론 모델, DeepSeek-R1은 supervised fine-tuning 기법을 건너뛰고 오로지 강화학습 기법만으로도 뛰어난 추론 성능을 얻어낼 수 있음을 증명했다는 높은 평가를 받았다. 특히 OpenAI o1 모델과 비교하여 수학, 영어, 코딩 부문에 있어 경쟁할 수 있는 수준의 성능을 갖추면서도, 최대 95%까지 더 저렴한 가격을 내세워 전 세계의 관심을 끌었다.

DeepSeek R1이 가져온 엄청난 파급력으로 인해, 일각에선 OpenAIChatGPT 무료 사용자들에게도 o3-mini 모델을 제한적으로 제공하기 시작한 것에 DeepSeek R1이 영향을 주었을 것이라는 시각도 있다.

DeepSeek CEO 량원펑(梁文锋)은 R1 공개일인 2025년 1월 20일에 리창 총리와 면담을 가졌다.

"전 세계에 AGI를 오픈 소스로 제공하는 것이 목표"라고 밝힌 만큼, 실제로 DeepSeek에서 개발된 각종 모델들과 관련 논문들은 오픈 소스로 배포되고 있다. OpenAI가 정작 이름과는 달리 모든 모델을 클로즈드 소스로 서비스하고있는 만큼 중국의 DeepSeek야말로 어떤 의미에서는 진정한 "Open" AI라는 평가도 나오고 있다.

3. 제품

모든 제품의 코드를 MIT 허가서 하에, 모델은 자체 라이선스(DEEPSEEK LICENSE AGREEMENT)하에 오픈 소스로 공개하고 있다.

3.1. DeepSeek-Coder

2023년 11월 14일에 공개되었다.#

3.2. DeepSeek-LLM

2023년 11월 29일에 공개되었다.#

3.3. DeepSeek-MoE

2024년 1월 11일에 공개되었다.#

3.4. DeepSeek-Math

2024년 2월 6일에 공개되었다.#

3.5. DeepSeek-VL

2024년 3월 15일에 공개되었다.#

3.6. DeepSeek-V2

2024년 5월 6일에 공개되었다.#

3.7. DeepSeek-Coder-V2

2024년 6월 17일에 공개되었다.#

DeepSeek-V2에서 6조 개의 토큰을 추가 학습하여 일반적인 작업에서의 성능을 유지하면서 코딩과 수학적 추론 능력을 향상시켰다고 한다. 지원 프로그래밍 언어를 86개에서 338개로 확장하고 컨텍스트 길이를 16K에서 128K로 확장했다고 한다.

공개된 벤치마크 데이터에 의하면, GPT-4o-0513과 거의 비슷한 성능을 보여준다.

3.8. DeepSeek-V2.5

2024년 9월 5일에 공개되었다.#

V2[4]와 Coder-V2[5]를 각각 파인튜닝하여 업그레이드한 뒤 두 모델을 통합시켜 만들었다고 한다.

기존 2.5 버전을 파인-튜닝 한 V2.5-1210이 12월 10일에 출시되었다.#

3.9. DeepSeek-VL2

2024년 12월 13일에 공개되었다.#

기존 VL1을 업그레이드한 버전이며, 1B, 2.8B, 4.5B 3가지 모델로 구성되어 있다.

3.10. DeepSeek-V3

2024년 12월 26일에 공개되었다.#

V2 대비 반응 속도가 3배 빨라졌으며, 개발사가 공개한 벤치마크에서는 Claude-3.5-sonnet-1022, GPT-4o-0513, LLama3.1-405B-Inst, Qwen2.5-72B를 압도하는 성능을 보여주었다. 실제로도 저렴한 API 가격에 상당한 성능으로 높은 가성비를 보이고 있다.

한편, 겨우 2048개 NVIDIA H800 클러스터를 이용해 278만 8천 GPU 시간만에 671B에 달하는 대형 모델을 학습했다고 밝히면서 업계에 충격을 주었다. H800은 미국의 대()중국 수출규제에 따른 중국 수출용 모델로, 원본인 H100 대비 NVLink 대역폭이 반토막나고 배정밀도 연산성능은 겨우 3% 남짓인 스펙다운 모델이기 때문에 더욱 충격이 컸다.

GIT에 공개한 딥시크 테크니컬 리포트 한글요약본

3.11. DeepSeek-R1

2025년 1월 20일에 공개되었다.# 논문

DeepSeek-V3를 기반으로 하는 2가지 메인 모델(R1, R1-Zero)과, 오픈 소스 모델에 R1을 통해 생성한 데이터셋으로 파인튜닝한 오픈 소스 기반의 6가지 증류 모델[6]로 구성되어 있다.

모든 모델은 MIT 라이선스가 적용되어 완전히 자유로운 사용이 가능하다.
파일:DeepSeek-R1 benchmark.jpg
DeepSeek R1 모델 벤치마크
공개된 벤치마크 결과에 의하면 o1-mini를 뛰어넘고, o1과 맞먹는 결과를 보여준다. 실제로 코딩 능력과 일부 벤치마크에서 o1을 넘어서는 것으로 확인되었고, OpenAI의 가장 저렴한 모델인 4o-mini보다 추론비용이 4배밖에 비싸지 않다.

한국어에 대한 지식도 어느 정도 존재하며, 그 유창성이 출시 당시 기준 현존 최고 수준의 프론티어 모델까지는 아니지만 4o와 같은 언어 모델에는 크게 밀리지 않는다.

매우 저렴한 모델 구축 및 운영비용과 중국의 투자회사가 사이드 프로젝트로 불과 두 달 만에 만든# 오픈 소스 인공지능이 OpenAI o3을 제외한 미국 거대기업들의 모든 대형LLM 성능을 올킬했다는 것이 알려지자 인터넷 인공지능 관련 커뮤니티, 그리고 실리콘밸리에 매우 큰 충격을 가져다주었다. # 인공지능을 벤치마크하는 최고 허들을 구축하기 위해 만들어진 테스트에서도 현재 시장에서 공개된 다른 모델들보다 더 높은 성능을 보여주기도 했다. #

이미지의 한글을 인식할 수 있다. 이미지 인식은 텍스트 추출이 주된 용도며, 순수 풍경 사진은 받아들이지 못한다. 2025년 1월 26일 기준 공식 홈페이지에서는 'DeepThink (R1)'버튼을 눌러야 사용 가능하며, 그렇지 않으면 DeepSeek V3 모델이 호출된다.

구독 서비스를 해야 최신 성능을 제한없이 이용할 수 있는 ChatGPT등 다른 LLM과 다르게 완전한 무료로 더 좋은 성능을 발휘한다는 파격적인 서비스 덕분에 ChatGPT를 제치고 미국 애플 앱 다운로드 1위를 달성했다. 틱톡은 안보위협으로 서비스 중단을 선언했는데, 미국의 기술 및 안보와 관련된 전문적인 데이터 유출 위협을 줄 수 있는, 훨씬 더 큰 문제가 발생한 셈이다.[7]

베이스 모델인 R1-zero는 인간 개입에 의한 SFT(supervised fine tuning)없이 강화학습(RL, reinforcement learning) 만으로 모델을 학습 시켰다. R1-zero 모델을 파인튜닝한 R1 모델은 인간에 의해 선별된 소규모 고품질 데이터를 사용하여 SFT로 먼저 파인튜닝한 후, 강화학습을 통해 모델을 추가로 파인튜닝하는 다단계 과정을 거쳐 학습된 모델이다.[8]

공식 홈페이지의 경우 AI기반 검색 기능을 동시에 이용할 수 있다는 점은 희귀한 지식이나 한국 고유의 지식에 대해서도 문제 해결력을 끌어 올린다. GPT에도 없던 검색과 추론을 동시에 이용할 수 있는 기능이라 호평이 있었지만, 급속도로 이용자가 몰리자 검색 기능을 이용하지 못하는 경우도 많이 생겼다. 미국산 인공지능보다도 성능에서 가장 비교우위를 가진 기능이라고 평가받기도 했다.

3.12. Janus

이미지 생성 기능을 갖춘 통합 멀티모달 모델로 소개하고 있다.논문 데모

2024년 10월 경 Janus-1.3B가 조용히 출시되었으며, 2024년 11월 13일에 JanusFlow-1.3B가 출시, 2025년 1월 27일에 Janus-Pro[9]가 출시되었다.

공개된 벤치데이터에 의하면, 현존하는 이미지 생성 모델중에서 가장 뛰어난 성능을 지닌것으로 평가되고 있다. 다만 이는 이미지를 해석하고 이해하는 능력과, 생성된 이미지가 사용자의 프롬프트를 얼마나 정확하게 반영했는지를 보여주는 지표로, 이 지표가 이미지의 퀄리티(해상도, 디테일, 사실성, 예술성 등)를 반영하지는 않는다. 실제 써본 사람들의 평가는 퀄리티가 좋지 못하다는 평가가 많다.
파일:JanusPro_bench.png
Janus-Pro 모델 벤치마크

4. 로컬 사용

공식 홈페이지에서 DeepSeek 모델을 사용하면 각종 주제에 대한 검열이 있을 수 있다.

하지만 R1을 비롯한 DeepSeek의 LLM 모델들은 전부 오픈 소스로 자유롭게 개방되어 있으므로 누구나 직접 LLM 모델을 자신의 기기에 내려받아서 구동시킬 수 있다. 이 경우 인터넷 연결 없이도 LLM 모델을 사용할 수 있으므로 앞서 언급한 다양한 문제를 상당 부분 해결할 수 있으나, 동시에 검색 기능을 지원하지 않아 직접 구현해야 한다는 단점도 존재한다.[10][11]

많은 화제를 끈 R1 원본 모델의 경우 약 500GB 수준에 이르는 메모리 용량을 요구하지만 추론 패턴 전이 및 양자화(비트넷)를 비롯한 다양한 경량화 기법들이 적용된 가벼운 모델들도 폭넓게 제공되고 있다.

직접 로컬 환경에서 DeepSeek 모델을 사용해보고 싶다면, GGUF 형태로 변환된 모델을 내려받아 이를 구동할 수 있는 프로그램이나 애플리케이션을 통해 사용하면 된다. #

현재 Windows, MacOS, Linux 환경에서는 Ollama가, 그리고 iOS 환경에서는 PocketPal, Private LLM 등의 애플리케이션이 R1 기반 모델을 지원하고 있으며, 8GB 수준의 메모리 용량을 갖춘 기기라면 Llama-8B 내지는 Qwen-7B에 기반한 모델이 권장된다.

한편, R1의 원본 수준 모델(671B)을 로컬 환경에서 구동하고 싶다면 Apple Silicon이 탑재된 Mac을 클러스터링하는 방법이 있다. Apple Silicon의 통합 메모리 용량은 옵션에 따라 정해져 있으며 사용자가 직접 용량 업그레이드를 할 수 없다는 점에서 고객들로부터 원성을 사기도 했지만, 메모리 대역폭이 엄청나게 늘어나면서 LLM을 빠르게 구동시킬 수 있다.

예시로 NVIDIA H200 SXM 141GB[12]의 경우 1개당 약 4900만원에 이르는 반면, 2023년형 Mac Studio 192GB[13]는 1대에 839만원에 불과하니 가성비(!)가 엄청난 것이다. # 예를 들어 3비트 양자화된 모델을 구동하려면 H200 구성으로는 단순계산만으로 3대(1억 4700만원 상당)가 필요하지만, Mac Studio를 쓴다면 2대(1680만 원 상당)만으로 해결할 수 있다. 실제 구동 영상

5. 논란 및 사건 사고

5.1. 중국 정치에 대한 검열

파일:딥시크 검열 논란 1.jpg파일:딥시크 검열 논란 2.jpg
V3 이용 중 딥시크 검열로 논란이 된 스크린샷. 특히 두 번째 사진에서 'It has never made any mistakes.(중국 정부는) 그 어떠한 실수도 한 적이 없다.'를 연발하는 모습이 연출된다.[14]

5.2. 데이터 무단 수집 의혹

OpenAI와 미 백악관 'AI and crypto czar'인 데이비드 삭스는 딥시크가 OpenAI 모델에서 디스틸레이션 기법을 통해 OpenAI의 모델로부터 지식을 추출했다고 주장했다. #

2025년 1월 29일, 오픈AI와 마이크로소프트는 딥시크가 AI 모델 훈련을 위해 오픈AI 데이터를 무단으로 수집했는지 여부에 대한 조사에 착수했다. #

오픈AI는 중국에 기반을 둔 기관들이 자사의 AI 도구에서 대량의 데이터를 빼내려고 하는 여러 시도를 목격했다며 이는 '증류(distillation)'라고 불리는 기술적 과정을 통해 자체 모델을 훈련하기 위한 것으로 보인다고 설명했다. '증류'는 AI 모델이 다른 모델의 출력 결과를 훈련 목적으로 사용, 유사한 기능을 개발하는 것을 의미한다. MS 보안 연구원들도 2024년 가을 딥시크와 관련 있을 것으로 보이는 사람들이 오픈AI의 API를 사용해 대량의 데이터를 빼돌리는 것을 관찰했다고 말했다.

오픈AI는 자사의 모델을 증류하려 한다고 의심되는 계정을 금지했으며, MS와 협력해 이런 시도의 배후에 있는 주체를 파악했다고 설명했다. 그러면서 딥시크가 자사의 "데이터를 무단으로 수집했을 가능성"이 있으며, 서비스 약관을 위반했다는 증거를 검토하고 있다고 전했다.

하지만 OpenAI는 "중국에서 그러한 API 요청이 있었다"라는 것 외의 증거를 공개하지는 못했는데, 당연히 중국에서 AI를 개발하는 기업/단체/학술기관이 DeepSeek만 있는 게 아니기 때문에 이것만으로 DeepSeek의 증류 사용 여부를 확정지을 수는 없다. 현재 DeepSeek 측이 논문에서 공개한 아키텍처를 재현, 검증하기 위한 프로젝트들이 여럿 진행되고 있으므로, 만약 DeepSeek에서 사기를 쳤고 ChatGPT를 모델 증류에 사용한 것이라면 얼마 지나지 않아 그 진실 여부를 알 수 있게 될 것이다.

다만, 온갖 사이트의 이용약관을 어긴 대량 크롤링으로 AI를 학습시켜 영리적으로 활용하는 OpenAI가 이제 와서 이용약관 위반을 운운하는 것은 양심이 없는 게 아니냐는 지적도 영미권을 중심으로 나오고 있다. # 애초에 LLM이나 Stable Diffusion 같은 AI 모델들이 마주하는 가장 큰 윤리적 문제가 데이터의 무단 수집이기 때문에, 비단 DeepSeek만의 문제는 아니라는 것.

6. 여담


[1] DeepSeek측에서는 오픈 소스로 홍보하지만 학습 데이터를 공개하지 않고 가중치(weights)만 공개하므로, 오픈 소스 이니셔티브(Open Source Initiative, 줄여서 OSI)에서 제시한 오픈 소스의 정의를 충족하지 않는다. 이런 모델은 통상 오픈 웨이트 모델이라고 분류되는데, 비슷한 방식으로 가중치만 공개한 LLaMA가 자기들을 오픈 소스 언어 모델이라고 홍보하는 바람에 요즘 마케팅적인 관점에서는 이렇게 가중치만 공개하는 경우에도 오픈 소스라고 부르기도 한다.[2] training DeepSeek-V3 on each trillion tokens requires only 180K H800 GPU hours, i.e., 3.7 days on our cluster with 2048 H800 GPUs. Consequently, our pretraining stage is completed in less than two months and costs 2664K GPU hours. Combined with 119K GPU hours for the context length extension and 5K GPU hours for post-training, DeepSeek-V3 costs only 2.788M GPU hours for its full training. Assuming the rental price of the H800 GPU is $2 per GPU hour, our total training costs amount to only $5.576M. DeepSeek-V3 Technical Report[3] 회사의 본업인 퀀트 알고리즘 트레이딩을 통해 자금을 충당하였으며, 대중 제재의 영향으로 H100을 사용할 수 없어 2048개의 H800을 사용했다고 알려졌다.[4] 0614[5] 0517[6] R1-Distill-Qwen(2.5)-1.5B / 7B / 14B / 32B, R1-Distill-LLaMA-8B(3.1) / 70B(3.3)[7] 다만 로컬용으로 모델을 배포했기 때문에 퍼플렉시티 같은 미국의 서비스 회사에서 모델을 서비스하기 시작하면 중국 서버로 데이터 유출 가능성은 줄어든다.[8] 이 방법을 reinforcement learning with cold start라고 한다.[9] 1B, 7B[10] 불가능한 것은 아니지만 langchain 코드나 덕덕고 웹검색 API 코드를 이용해 직접 구현해야 한다.[11] ollama와 Page Assist - A Web UI for Local AI Models확장 프로그램으로도 구현 가능하다[12] HBM3e VRAM, 대역폭 4.8TB/s[13] LPDDR5-6400으로 구성 시, 통합 메모리 대역폭 800GB/s[14] 다만 이런 식으로 특정 어구를 반복하는 버그는 ChatGPT 등의 다른 AI에서도 종종 나타나기 때문에 해당 버그가 발생했다는 사실 자체는 중국 관련 검열과 직접적인 관련이 없다. 중국과 관련 없는 질문에도 간혹 저렇게 답변하는 것을 보아 충분히 학습되지 못한 질문에 답변할 시 생기는 오류로 추정된다.[15] 중국공산당이 제시한 12가지 단어로 요약되는 서구적 가치관을 견제하는 가치관이다. 단어 자체는 부강, 민주, 자유, 평등, 공정 등 다른 나라에서도 강조되기 쉬운 규범이지만 이것을 서구 대신 중국공산당이 잘 지키고 있다며 선전한다. 우리의 자유는 '질서 있는 자유'라고 주장하는 식으로 말이다. 중국에서는 아이들에게도 이것이 교육되며, 관련 구호를 도시든 농촌이든 굉장히 흔하게 볼 수 있다.[16] 동북공정 같은 역사왜곡의 전제다.[17] 모델 자체에 검열을 적용하는 것도 이론적으로는 가능하지만, 일반적으로는 모델의 출력값을 다른 LLM을 사용해 평가하고 필터링하는 방식으로 검열이 이루어진다.[18] 물론 성소수자 차별로 판단될 수 있는 행동이나 외모 평가 등 중국 내에서는 금기로 여겨지지 않지만 서구권에서는 부적절하다고 판단되는 내용에 대해서는 검열이 약할 가능성이 높긴 하다.[19] 팬데믹이 있던 2020년 3월 이후 최대 일간 하락률을 기록했으며, 하루만에 시가총액이 무려 866조 원 내려가며 세계 증시 역사상 가장 큰 일간 시가총액 하락을 기록했다.[20] 게다가 DeepSeek는 오픈소스이기 때문에 같은 방법론이 다른 회사의 학습방법에도 동일하게 적용될 수 있다. 즉 이제부터는 다른 AI도 DeepSeek의 방법론을 이어받아 학습이 쉬워진다는 거고 같은 방법론이면 고성능 하드웨어를 더 많이 투입한 쪽이 더 빠르고 정확한 추론이 가능해진다는 것이다. 그럼 당연한 얘기지만 고성능칩을 동원하는 다른 AI들이 이제부터는 DeepSeek를 벤치마킹해 더욱 지금의 DeepSeek보다 성능이 좋아질 가능성이 높고 고성능 반도체의 소비자 수요는 당연히 훨씬 더 증가할 것이다. 생각하면 아주 간단한 얘기지만 당장 시장에 준 충격이 워낙에 커서 발표 당시엔 거기까지 다들 생각이 닿지 않았으니 발생한 촌극에 가까운 이야기라고 볼 수 있는 것이다. 애초에 개발진 측에서 목표로 삼는 것도 궁극적으로는 AGI의 개발과 AGI를 대중적으로 쉽게 보급하는 것이고 이런 의미에서 인류 전자 문명의 발전이라는 대승적 목표를 달성하기 위해 모두에게 오픈소스로 공개한 것이니만큼 DeepSeek의 발전이 AI 업계 전반의 발전을 촉진했으면 했지 이제와서 그걸 퇴보시키는 일은 없을 것이다. 또한 예전의 막대한 자본으로 무식하게 연산성능만 추가하여야 한다는 인식에서 벗어나 더 나은 알고리즘으로 자본 격차를 극복 가능하다는 사례가 될 것이며 이를 연구하는데 자본 일부가 투입되어 기존의 그래픽카드의 비정상적인 수요도 안정될 것이다.[21] 미국, 중국에 비해 AI 산업이 뒤쳐져 있는 한국은 물론이고 AI 산업에 투입되는 인풋이 너무 막대해 손만 빨며 바라보던 대다수의 개도국 IT업계에서도 긍정적으로 볼 여지가 많다.