블로그

INSIGHT

딥시크가 AI 시장에 남긴 것

2025.02.18.

딥시크가 AI 시장에 남긴 것

 

 

새해가 시작된 지 한 달이 채 되지 않은 2025년 1월. 중국의 AI 스타트업 딥시크(DeepSeek)가 AI 시장을 뒤흔들었습니다. 딥시크는 추론 모델 R1을 공개하면서, 오픈AI의 모델과 유사한 성능을 갖추었다고 주장했습니다. R1 모델이 남다른 주목을 받은 건, 미국의 견제 하에 최고사양의 GPU를 공급받지 못하면서도 효율적 비용으로 고성능의 AI 모델을 개발해냈기 때문입니다.

 

 


History of DeepSeek

 

[사진1] 딥시크 로고

[사진1] 딥시크 로고


딥시크는 2023년 7월 중국 헤지 펀드 회사인 High-Flyer에서 분사하여 설립된 인공지능 회사입니다. 


 

[사진2] V3을 공개한 DeepSeek (출처: X)

[사진2] V3을 공개한 DeepSeek (출처: X)

 

R1이 공개되기 약 한 달 전인 2024년 12월 26일. 딥시크는 R1의 전 버전에 해당하는 V3를 공개했습니다. V3는 공식적인 훈련 비용으로 6백만 달러를 사용하고 엔비디아의 H800 모델의 GPU 2048장을 사용하여 개발된 것으로 알려져 있는데요. 


샘 올트먼(Sam Altman)과 함께 OpenAI를 창립한 것으로 알려진 컴퓨터 과학자 안드레아 카르파티(Andrej Karpathy)는 그의 SNS를 통해 “DeepSeek-V3는 라마 3 405B와 같은 모델보다 11배 적은 컴퓨팅 자원 (280만 GPU-시간 vs 3080만 GPU-시간)으로도 더 강력한 성능을 보이는 것으로 추정”된다고 밝힌 바 있습니다.

 


 [사진3] R1 모델 성능 비교 (출처: DeepSeek Github)
[사진3] R1 모델 성능 비교 (출처: DeepSeek Github)

 

화제가 된 R1 모델의 경우, 개발에 들어간 비용에 대해서 정확히 밝혀진 바 없으나, V3모델과 마찬가지로 개발에 필요한 반도체 공급이 제한적인 상황에서 OpenAI-o1 모델의 역량을 따라잡은 것으로 보입니다. DeepSeek에서 공개한 성능 평가 결과에 따르면, R1은 수학, 코딩, 추론 영역에서 o1 모델과 유사한 성능을 갖추고 있는데요. OpenAI는 지난 해 9월 o1 모델을 공개하며, 다음과 같이 성능을 묘사한 바 있습니다.

 

 [사진4] o1의 성능 평가 결과 (출처: OpenAI)
[사진4] o1의 성능 평가 결과 (출처: OpenAI)

 

- 영역1. 프로그래밍 (Codeforces): 상위 89%의 성적을 기록했습니다.
- 영역2. 수학 (AIME): 미국 수학 올림피아드 예선(AIME)에서 상위 500위 안에 들었습니다.
- 영역3. 과학 (GPQA): 물리학, 생물학, 화학 문제 벤치마크(GPQA)에서 인간 박사 수준의 정확도를 능가했습니다.

 


딥시크가 혁신적일 수 있었던 이유


일부 전문가들은 딥시크가 기존의 AI 모델들에 비해 효율적인 데이터 처리 방식을 선택함으로써, 비용을 낮출 수 있었을 것으로 추정하고 있습니다. 그 핵심으로 언급되는 것이 ‘Mixture of Experts’(MoE) 구조입니다. 

 

MoE 아키텍처는 영어 단어 뜻 그대로, 전문가 혼합 구조를 의미합니다. 작년 1월 딥시크가 발표한 논문에서, 딥시크는 DeepSeekMoE를 소개했는데요. DeepSeekMoE 안에는 세분화된 전문가 그룹이 존재하며, AI 모델이 데이터를 처리할 때에 필요한 컴퓨팅 자원을 선택적으로 활성화함으로써 소비되는 비용을 최소화합니다.

 

화제가 되었던 DeepSeek R1 모델과 그 전작인 V3 모델 모두 MoE 아키텍처를 선택하고 있는데요. 이처럼 AI 모델을 개발하는 비용을 획기적으로 절감한 DeepSeek는 사용 단계에서도 눈에 띄게 절감된 비용을 제시하고 있습니다. 앞서 비교된 OpenAI의 o1 모델에 사용자가 프롬프트를 입력 시, 1백만 토큰 당 15달러, 결과값을 위해 60달러를 지불해야하는 반면, R1 모델의 경우 입력하는데 0.55달러, 결과값을 위해 2.19달러만을 필요로 합니다. 이를 비교하면 일반적으로 R1은 o1에 비해 95% 절감된 비용으로 서비스를 제공할 수 있습니다.

 


딥시크의 파급력

 

[사진5] 엔비디아 주가 (출처: 구글)
[사진5] 엔비디아 주가 (출처: 구글)

 

딥시크의 R1 모델 발표는 즉각적으로 엔비디아의 주가 하락에 영향을 미쳤습니다. AI 개발과 사용을 위해서는 고성능의 하드웨어가 뒷받침해주어야 한다는 기존의 인식이 크게 흔들렸기 때문입니다.

 

 

 [사진6] 2025년 2월 5일 미국 앱스토어 내 앱 순위 (출처: App Store)
[사진6] 2025년 2월 5일 미국 앱스토어 내 앱 순위 (출처: App Store)

 

딥시크에 대한 사용자들의 관심 또한 즉각적으로 나타났습니다. 미국 앱스토어 내에서 딥시크는 곧바로 인기 무료 어플로 이름을 올렸고, 한동안 ChatGPT 어플을 제치고 차트 내 1위를 차지하기도 했습니다.

 

IT 업계를 이끄는 글로벌 빅테크 기업들 또한 딥시크의 성과를 인정하는 분위기입니다. 마이크로소프트의 CEO, 사티아 나델라(Satya Nadella)는 딥시크에 대해 “진짜 혁신”을 만들어냈다고 평가했고, Apple의 CEO 팀 쿡(Tim Cook) 또한 “효율을 이끄는 혁신은 좋은 일”이라고 평가했습니다. 이러한 새로운 경쟁 상대의 부흥에 대해 OpenAI의 샘 올트먼은 개인 SNS를 통해 “가격에 비해 제공하는 역량이 특히 인상적인 모델”이라며 앞으로 더 나은 모델을 선보일 예정이라고 밝혔습니다.

 

한 편, 이러한 빅테크 기업에서 제공하는 AI 개발 플랫폼들에서는 발 빠르게 DeepSeek R1 모델을 사용자들에게 제공하기 시작했습니다. 마이크로소프트의 Azure AI Foundry, AWS의 Amazon Bedrock과 Amazon SageMaker AI에서 DeepSeek-R1 모델을 활용 및 배포할 수 있습니다.

 


불거지는 보안 문제 

단숨에 AI 시장의 선두에 자리하게 된 딥시크의 발목을 잡은 건 다름 아닌 보안 문제였습니다. 미국에서는 일부 주 정부와 미국우주항공국(NASA), 미 해군 내 딥시크 이용이 금지되었으며, 대만에서도 정부 각 부처 및 기관 내 딥시크의 이용이 금지되었습니다. 뿐만 아니라, 이탈리아에서는 앱 스토어 내 딥시크 앱 자체가 삭제되었고, 이외 네덜란드/독일/영국에서도 개인 정보 및 국가 안보 차원에서의 규제 가능성을 살피고 있는 것으로 알려졌습니다.

 

국내에서도 정부와 기업 내 딥시크 이용이 제한되고 있습니다. 국내 전문가들은 딥시크가 제시하는 약관에서 사용자의 개인정보를 과도하게 수집하고 있으며, 이에 대한 사용 방안에 대해서도 공개되어 있지 않다고 지적하기도 했습니다.

 


DeepSeek 이후의 AI 시장 전망과 시사하는 바

보안 이슈로 인해 딥시크 사용에 대해서는 부정적인 여론이 형성되고 있지만, 딥시크가 엔비디아의 주가를 흔들 만큼 시장에 큰 파장을 일으킨 점은 분명해 보입니다. 딥시크는 AI 개발 방향성에도 시사점을 남겼는데요.

 

“더 효율적인 AI 개발”

 

지금까지 AI 개발은 규모의 자산을 바탕으로 가능하다고 여겨져 왔습니다. 더 좋은 AI 성능 개발을 위해서는 AI 학습 데이터나 컴퓨터 자원의 규모를 키우는 것이 근본적으로 필요하다고 여겨졌기 때문입니다. 딥시크의 이번 R1 모델 발표는 이러한 인식에서 벗어나, 주어진 AI 자원에 최적화된 학습 방법으로 성능을 획기적으로 향상할 가능성을 보였습니다. 

 

“AI 시장의 다양화”

 

그럼에도 빅테크의 AI 인프라에 대한 투자는 당분간 계속될 것으로 보입니다. 그동안 고사양 AI 반도체에 많은 투자를 해온 마이크로소프트와 메타는 지난 29일, AI 투자를 줄이지 않을 것이라는 의사를 밝힌 바 있습니다. 전문가들 또한 산업 현장에서 AI가 학습해야 하는 데이터가 더 복잡해지고 방대해지면서, 결국 고성능의 컴퓨팅 자원이 필요하게 될 것으로 예상하고 있는데요. 조직과 비즈니스의 니즈에 맞추어, AI 시장 또한 더욱 다양한 서비스를 선보이며 고객의 선택의 폭을 넓혀갈 것으로 보입니다.

 

“보안의 중요성”

 

한 편, 전 세계 시장이 딥시크가 선보인 AI 모델의 성능보다도, 이를 위해 수집되는 개인정보에 대해 더욱 민감한 반응을 보이고 있다는 점은 AI 서비스 업계에서의 보안의 중요성을 다시금 일깨우는데요. 빨라지는 AI 발전 속도가 가져올 파장을 우려하여, 기업과 정부는 AI를 상용화하는데 더 조심스러운 모습을 보이는 것으로 판단됩니다.

 


-

 

 

웅진과 함께 AI 혁신을 함께하세요.

 

 


Reference

James Vincent, “The DeepSeek panic reveals an AI world ready to blow”, The Guardian – Opinion (2025.01.28)
https://www.theguardian.com/commentisfree/2025/jan/28/deepseek-r1-ai-world-chinese-chatbot-tech-world-western 

 

X, Andrej Karpathy
https://x.com/karpathy/status/1872362712958906460?lang=en 

 

OpenAI, “Learning to reason with LLMs” (2024.09.12)
https://openai.com/index/learning-to-reason-with-llms/ 

 

CNBC, “DeepSeek shocked the AI world this week. Here’s how tech CEOs responded” (2025.02.01)
https://www.cnbc.com/2025/02/01/deepseek-shocked-ai-world-this-week-heres-how-tech-ceos-responded.html 

 

Microsoft, “DeepSeek R1 is now available on Azure AI Foundry and GitHub” (2025.01.29)
https://azure.microsoft.com/en-us/blog/deepseek-r1-is-now-available-on-azure-ai-foundry-and-github/ 

 

VentureBeat, “Open-source DeepSeek-R1 uses pure reinforcement learning to match OpenAI o1 — at 95% less cost” (2025.01.20)
https://venturebeat.com/ai/open-source-deepseek-r1-uses-pure-reinforcement-learning-to-match-openai-o1-at-95-less-cost/ 

 

Amazon Web Services 한국 블로그, “DeepSeek-R1 모델 AWS 출시” (2025.02.05)
https://aws.amazon.com/ko/blogs/korea/deepseek-r1-models-now-available-on-aws/ 

 

한경, “"값비싼 엔비디아 AI칩 필요한가?" vs "고성능 칩 수요 더 커질 것"” (2025.01.30)
https://www.hankyung.com/article/2025013043791 

 

조선일보, “대만, 정부부처에 딥시크 금지령…유럽도 보안 우려” (2025.02.03)
https://www.chosun.com/economy/tech_it/2025/02/01/5VC26MSEWNCFBB6FREPLZQUU24/ 

 

조선일보, “보안 우려에...전세계 '딥시크 사용 금지' 물결 일어” (2025.02.03)
https://www.chosun.com/national/2025/02/03/RHOA6BCYNNBAPGIFGASNURLLIY/ 

 

조선일보, “"학습 비용 싼 딥시크 AI모델, 서비스 비용은 비싸 돈 벌기 어려워" 中 AI의 허와 실… 전문가 대담” (2025.02.13)
https://www.chosun.com/economy/tech_it/2025/02/13/XMYINMBT5VGFTBWLJS3GVZ3K54/?utm_source=naver&utm_medium=referral&utm_campaign=naver-news 

 

DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models (2024.01.11)
https://doi.org/10.48550/arXiv.2401.06066 

 

 

목록보기