티스토리 뷰
MCP가 매우 핫하다.
완전히 뜨거운 감자라고 할 수 있는데, 사실 MCP에 관해서 설명 자체는 다른 블로그나, 유튜브에도 많으므로 이 글에서는 다루지 않겠다.
한마디로 말하면 툴 자체를 정형화하여, LLM 모델에 커넥팅 할 수 있게 만든 것이기 때문이다.
가장 큰 비유로 항상 USB C 타입으로 하는데, 솔직히 말해서 필자는 USB C 타입보다는, 기계공학과 출신으로서 공차를 맞추는 데 쓰는 공차 망치로 비유하고 싶다.
왜냐하면, 아직까지 지원되는 LLM들이 많지 않다. Claude 3.7 소넷 같이 큰 모델들은 대부분 Agentic '도구 사용'에 대한 벤치마크가 있다. 그것까지 포함하여 지원이 된다는 것이다.
https://blog.langchain.dev/benchmarking-agent-tool-use/
https://gorilla.cs.berkeley.edu/leaderboard.html
어떠한 쿼리를 줬을 때, 예를 들어서 검색을 하라고 했을 때, 아무리 MCP를 쓰더라도 그 툴에 대한 지능적인 이해 요소가 없다면 LLM은 그 툴을 가져다 쓰지 않는다.
따라서 Tool Calling을 지원하는 LLM들은 다 된다고는 하는데, 정확히는 '자체적으로 실행'하기 위해서는 적어도 70B 이상의 모델들이 필요하다는 게 아직까지는 정론이다.
대표적으로 현재까지 오픈소스에서 가장 성능이 좋고, 현업에서도 실제 쓰이는 Llama,Qwen 시리즈(32B 이하), Gemma3는 이러한 Tool Calling 능력이 생각보다 좋지 않다(애초에 gemma3 자체는 툴 콜링을 공식적으로는 지원하지 않는다.)
따라서, MCP가 오픈소스화되어 있다고 하더라도, 실제로 프로덕트를 개발하는 데 있어 쓰일 수 있는 LLM이 오히려 부족한 실정이 되어버렸다.
어쩌면 그러한 LLM이 나오는 순간 시장의 판도를 바꿀 수 있을지도 모르기에 기대할 법도 하다.
예를 들어, openai가 떠들어온 o3-mini의 오픈소스화라던지?
트렌드를 계속해서 주목해야 할 필요가 있어보인다.