본문 바로가기

AI

Gemini는 왜 안 쓸까?

728x90

AI 3대장(GPT, Claude, Gemini) 중에 Gemini는 사람들의 선호도가 상대적으로 떨어지는 것 같은데, 이유가 뭘까?

그냥 내가 3가지 써보며 느낀 점을 개인적인 생각을 정리해 본다.

 

ChatGPT의 선점 효과

ChatGPT가 처음 등장했을 때, 사람들은 대화형 AI = ChatGPT 라는 것이 인식이 박혀버렸다.

AI를 쓴다고 하면 당연히 ChatGPT를 떠올렸고 굳이 다른 모델을 선택할 생각을 하지 않는 경우가 많았던 것으로 보인다.

실제로 GPT가 선두주자이기도 했고.

 

말귀를 못 알아먹음(?)

Gemini 2.x만 해도 동시기 GPT 4.x와 비교했을 때 유독 말귀를 더 못알아먹었다.

물론 GPT 4.x도 답변 헛소리하고 그러는 게 많았지만 Gemini 2.x는 GPT 3.x 급으로 못알아먹었던 거 같다.

그러다가 지금 Gemini 3.x 와서는 (내가 느끼기로는) 말귀 잘 알아먹는다고 생각한다. (주변에서는 아직 GPT, Claude에 비해 부족하다고 하는 경우가 많지만)

 

다른 생태계와의 연계 부족

MCP의 등장으로 AI가 외부 서비스에 쉽게 접근할 수 있게 되었다.

MCP의 본가인 Claude가 이쪽으로는 가장 잘 되어 있고, ChatGPT도 어느 정도 따라가는 것으로 보인다.

CLI로 직접 설정할 수도 있겠지만, 아무래도 딸깍딸깍으로 설정하는 게 편한데, Gemini는 자사 서비스(Gmail 등) 말고는 잘 안 되는 듯.

 

데스크탑 앱의 부재

GPT(Codex)와 Claude는 데스크탑 앱을 제공하는데, Gemini는 CLI로만 제공되고 있다.

개발자라면 CLI로도 잘 쓰겠지만, 그래도 GUI가 제공되는 것이 낫지 않나?

CLI 또한 구글이 Vertex AI에 집중하느라 Gemini CLI는 방치하고 있다는 얘기도 있다.

 

그럼에도 불구하고 Gemini를 써야 하는 이유는?

가성비가 좋다.

다른 애들은 순수 AI 요금이지만, Gemini를 구독하면 구글의 다른 서비스까지 딸려온다.

반대로 말하면 그게 없으면 굳이 GPT와 Claude를 놔두고 Gemini를 선택해야 싶기도 하다.

 

API 비용도 GPT, Claude 대비 저렴하다.

 

컨텍스트 크기가 크다.

Gemini 3 Flash가 1M 컨텍스트 크기를 지원한다.

비슷한 포지션의 GPT 5.4 mini가 400K, Claude Haiku 4.5는 200K 크기를 지원한다.

 

물론, 컨텍스트 크기가 크다고 해서 무조건 똑똑해지는 것은 아니지만 커서 나쁠 건 없지 않나?

 

모델 컨텍스트 크기 입력 $/1M 출력 $/1M
openai/gpt-5.4-mini 400K $0.75 $5
anthropic/claude-haiku-4-5 200K $1 $5
google/gemini-3-flash-preview 1.0M $0.50 $3
openai/gpt-5.4 1.1M $3 $15
anthropic/claude-sonnet-4-6 1.0M $3 $15
google/gemini-3.1-pro-preview 1.0M $2 $12

 

세차장 문제

자동차 세차를 하러 가야하는데, 50m 정도 거리야. 차를 타고 가야 할까? 걸어가야 할까?

 

Gemini, ChatGPT, Claude 한테 각각 위와 같이 물어봤을 때, ChatGPT와 Claude는 걸어가라고 하지만, Gemini는 차를 타고 가라고 한다!

Gemini (사고 모델)

 

ChatGPT (5.4 Thinking)

 

Claude (Sonnet 4.6)

 

ChatGPT도 5.4 Pro, Claude도 Opus 4.6 (확장)에서는 차를 타고 가라고 한다. 그런데 답변까지 굉장히 오래 걸릴 뿐더러 그 정도로 비싼 모델을 써야 하는 질문인지는 모르겠다.

반면, Gemini는 빠른 모델(3 Flash non-reasoning)에서도 차를 타고 가라고 한다. 스샷은 사고 모델(3 Flash reasoning)로 되어 있는데 빠른 모델로 해도 차 타고 가라고 한다.

 

728x90