2025년 1월 마지막주, AI 분야에서 가장 뜨거웠던 모델을 아시나요?
중국의 스타트업이 만든 오픈소스 생성형 AI인 DeepSeek인데요, 다른 생성형 AI보다 훨씬 저렴한 비용으로 비슷한 성능을 보인다고 해서 많은 사람들의 놀라움을 자아내었습니다. 이로 인해 NVIDIA를 포함하여 MS, Amazon, Google등의 주가가 크게 하락하였습니다. 그 이유는 중국에GPU가 수입이 되지 않는 상황에서 DeepSeek가 개발한 AI모델이 560만 달러로 개발했기 때문입니다. 기존 AI 모델이 수많은 GPU를 사용하고 수십억 달러를 투자한 것에 비해 훨씬 효율적이었던 것이죠.
DeepSeek의 성능
DeepSeek의 성능은 ChatGPT를 포함한 다른 생성형 AI와 비교해서 비슷하거나 높다고합니다. 아래는 DeepSeek공식 홈페이지에서 발표한 벤치마크 성능입니다.
DeepSeek에서 제공한 자료이기에 얼마나 신뢰할 수 있는지는 모르겠지만 기존 생성형 AI와 비슷한 성능을 보이고 있기에 큰 화제가 되는 것 같습니다. DeepSeek은 한국어 데이터를 많이 학습했다는 이야기가 있어 한국어로 대화할 때 다른 생성형 AI보다 자연스러운 답변을 제공할 것 같다는 생각이 들기는 합니다.
DeepSeek 웹 버전 사용하기
DeepSeek는 아래의 링크로 들어가 회원 가입만 하면 웹에서 바로 사용할 수 있습니다.
DeepSeek와 한국어로 대화를 했을 때 자연스럽다는 것을 느낄 수 있었고, 정보를 생성하는 속도도 꽤 빨랐습니다.
아쉬웠던 점은 어떤 질문에 대해서는 서버가 바쁘다는 답을 한다는 것입니다. 바로 다음 질문을 했을 때는 제대로 답을 한 것을 보면 답하기 어렵거나 불리한 질문일 경우에 서버가 바쁘다는 답을 하는 것으로 프롬프트 엔지니어링이 되어 있지 않는가 하는 의심을 하게 되었습니다.
DeepSeek의 모드
DeepSeek에는 3가지 모드, 즉 일반 모드, DeepThink(R1) 모드, Search 모드가 있습니다.
일반 모드
일반 모드는 간단한 질문에 대해 간결한 답변을 빠르게 답해주는 모드입니다. 날씨, 언어, 간단한 코드를 요청할 때 사용하면 좋습니다. 일반 모드에서는 94개 이상의 언어로 질문하고 답변받을 수 있다고 하네요.
DeepThink(R1) 모드
DeepThink(R1) 모드는 보다 복잡한 추론 능력을 갖춘 모델입니다. 복잡한 수학 문제, 심도 있는 분석, 전문 분야의 깊이 있는 질문에 답할 수 있다고 합니다.
DeepThink(R1) 모드를 사용할 때 신기하면서도 재미있는 점은 DeepSeek이 추론하는 것을 볼 수 있다는 점입니다. ‘양자역학에 대해 초등학생이 이해하도록 설명해’ 달라고 요청했을 때 DeepSeek이 양자역학이라는 분야애 대해 생각해 보고 초등학생이 이해하려면 전문 용어를 지양하고 일상 생활에서의 예시를 들어야 한다고 스스로 생각하는 것을 볼 수 있었습니다.
추론을 마치고 나온 답변은 초등학생이 이해할 수 있도록 다양한 예시를 사용하는 것을 볼 수 있었습니다.
Search 모드
Search 모드는 인터넷으로 검색하여 실시간 정보를 출처와 함께 제공합니다. 퍼플렉시티나 ChatGPT Search 기능과 비슷한 기능이죠. 사용해 보려 하였지만 서버가 바쁘다는 메시지만 나와 직접 사용해 보지는 못했습니다.
DeepSeek의 다양한 버전
위에서 살펴본 웹 버전 외에도DeepSeek는 모바일 버전과 로컬 버전을 제공합니다.
모바일 버전
모바일 버전은 OS에서 제공하는 앱스토어에서 다운로드하여 사용할 수 있습니다.
구글 플레이에서는 DeepSeek이 벌써 1000만번 이상 다운로드된 것을 볼 수 있네요. 1월 말 현재 앱스토어에서 1위를 차지하고 있다고 합니다.
모바일 버전은 아래와 같이 생겼습니다.
로컬 버전
위에서도 언급했듯 DeepSeek은 오픈소스로 모델을 공개했기 때문에 로컬에서 설치하여 무료로 사용할 수 있습니다. 다만 모델에 따라 VRAM의 용량이 충분해야 하고, GPU가 필요할 수도 있습니다. 각 모델별 필요한 최소 사양은 아래의 표를 참고해 보세요.
참고할 점은 Ollama를 설치 후 DeepSeek 모델을 다운로드하고 모델이 동작할 수 있는 공간이 필요하므로 가장 작은 모델을 사용하더라도 약 8GB 이상의 VRAM이 필요할 수 있다는 점입니다. 또한 모델의 크기가 작을수록 모델의 성능이 떨어진다는 점 역시 기억해 주세요.
로컬에 DeepSeek을 설치하려면 우선 Ollama 공식 홈페이지(https://ollama.com/)에서 Ollama를 다운로드하여 설치하고, Ollama에서 Models에 들어가DeepSeek을 검색한 후 원하는 모델을 선택하여 설치하면 됩니다.
설치할 수 있는 모델과 다운로드 명령어는 아래와 같습니다.
터미널에 명령어를 입력하면 모델이 다운로드되어 바로 사용할 수 있습니다.
지금까지 DeepSeek에 대해 알아보았습니다. 너무 긴 글이 될 것 같아 DeepSeek 모델이 어떤 방법으로 저렴한 비용으로 높은 성능을 올릴 수 있었는지는 설명하지 못했지만 궁금한 분들은 모델의 알고리즘은 아래의 자료를 참고해 주세요.
https://brunch.co.kr/@jinhoyooephf/38
https://turingpost.co.kr/p/deepseek-model
마지막으로 DeepSeek을 사용할 때 주의점이 있는데요, 중국에서 만든 것이다 보니 개인 정보 유출 등 보안 이슈가 있습니다. 사용할 때는 개인 정보가 노출되지 않도록 주의하시길 바랄게요.
출처
https://brunch.co.kr/@acc9b16b9f0f430/137
'인공지능(AI)' 카테고리의 다른 글
ChatGPT의 Tasks: 일정 관리 및 반복 업무 요청 (0) | 2025.02.12 |
---|---|
DALL-E2 베타 버전 신청 및 사용 방법 (0) | 2022.08.28 |
POETIC AI(포에틱 AI), 어떤 알고리즘을 썼을까? (0) | 2022.04.24 |
텍스트만으로 이미지를 만들고 편집하는 인공지능 DALL-E 2 (0) | 2022.04.17 |
댓글