2025-05-21 / @syui

openai , llm , mcp , chatgpt

mcpとchatgpt

mcp(model context protocol)が最近話題になっています。今回はこのmcpについての解説になります。

mcpは多くの人にとって学ぶ必要がない技術です。例えば、プログラマだったり、アプリ開発、フロントエンド、デザインをしているとかだと、mcpは必要ありません。mcpを学ぶ必要があるのは主にバックエンドの人です。

ということで、mcpについて解説していきます。

mcpは、今後バックエンドの主流になると思います。ようはサーバーを扱ったり、環境を構築したりといった分野。

それ以外は、主にclient、ollamaだったり、lmstudioだったりのほうが便利だと思います。

mcpはAI環境の構築を目指す技術で、それぞれのmodelは今まで独自の仕様で動かしていました。これだとAIで何をするにも面倒です。したがって、AI(model)のinput/outputの形式を統一しようというのがmcpです。mcpに対応しているmodelを使用します。protocolなので、普通の人は学ぶ必要がありません。通常の開発でも意識するような領域ではないですね。

そのうち、便利なツールがでてくると思うので、それを使うのが一番かなと思います。k8sやdockerのようなものが出てくるのではないでしょうか。まあ、ollamaやlmstudioがそれらに相当するかもしれません。

mcpの使い方

mcpでどうやって環境を構築するのか、具体的な手順を見ていきたいと思います。

簡単な方法

$ pip install fastmcp uvicorn
from fastmcp import FastMCP

mcp = FastMCP(
    name="aigpt-agent",
    host="127.0.0.1",
    port=5000,
    timeout=30
)

if __name__ == "__main__":
    print("Starting MCP server...")
    mcp.run()
python server.py
fastmcp run server.py:mcp
# server.py
from fastmcp import FastMCP
import uvicorn

mcp = FastMCP("aigpt-agent")

@mcp.tool()
def ping() -> dict:
    return {"message": "pong"}

if __name__ == "__main__":
    uvicorn.run(mcp, host="127.0.0.1", port=5000)