
工具介绍
MCP(模型上下文协议)是一种开放标准,旨在为大型语言模型(LLM)提供统一的工具和数据源接口,实现与外部应用的无缝连接。
MCP‑Use作为一款开源客户端库,使得任意支持工具调用的LLM能够连接到任何MCP服务器,构建具备网页浏览、文件操作等工具访问能力的智能代理。
借助MCP和MCP‑Use,开发者可以轻松构建和部署具备高级工具访问能力的智能代理,实现复杂工作流的灵活调度,并提升系统的安全性和可控性。
这为大型语言模型的应用提供了更多可能性,推动了人工智能技术的发展和应用。
主要特点
🔄易于使用创建您的第一个 MCP 代理,您只需要 6 行代码
🤖 LLM 灵活性
可与任何支持工具调用的 langchain 支持的 LLM 配合使用(OpenAI、Anthropic、Groq、LLama 等)。
🌐 HTTP 支持
直接连接到在特定 HTTP 端口上运行的 MCP 服务器
⚙️动态服务器选择
代理可以从可用池中动态选择最适合给定任务的 MCP 服务器
🧩多服务器支持
在单个代理中同时使用多个 MCP 服务器
🛡️工具限制
限制文件系统或网络访问等潜在危险的工具
快速启动
使用 pip:
pip install mcp-use
或者从源安装:
git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install -e .
安装 LangChain 提供程序
mcp_use 通过 LangChain 与各种 LLM 提供程序兼容。您需要根据所选的 LLM 安装相应的 LangChain 提供程序包。例如:
# For OpenAI
pip install langchain-openai
# For Anthropic
pip install langchain-anthropic
# For other providers, check the [LangChain chat models documentation](https://python.langchain.com/docs/integrations/chat/)
并将您想要使用的提供商的 API 密钥添加到您的.env
文件中。
OPENAI_API_KEY=
ANTHROPIC_API_KEY=
重要提示:只有具备工具调用功能的模型才能与 mcp_use 配合使用。请确保您选择的模型支持函数调用或工具使用。