Applnn网站有客户端啦,更加流畅精简,点击客户端下载即可下载,原applnn.cc域名更换applnn.com新域名

MCP(模型上下文协议)与MCP‑Use开源客户端库

MCP(模型上下文协议)与MCP‑Use开源客户端库插图

工具介绍

MCP(模型上下文协议)是一种开放标准,旨在为大型语言模型(LLM)提供统一的工具和数据源接口,实现与外部应用的无缝连接。

MCP‑Use作为一款开源客户端库,使得任意支持工具调用的LLM能够连接到任何MCP服务器,构建具备网页浏览、文件操作等工具访问能力的智能代理。

借助MCP和MCP‑Use,开发者可以轻松构建和部署具备高级工具访问能力的智能代理,实现复杂工作流的灵活调度,并提升系统的安全性和可控性。

这为大型语言模型的应用提供了更多可能性,推动了人工智能技术的发展和应用。

主要特点

🔄易于使用
创建您的第一个 MCP 代理,您只需要 6 行代码
🤖 LLM 灵活性
可与任何支持工具调用的 langchain 支持的 LLM 配合使用(OpenAI、Anthropic、Groq、LLama 等)。
🌐 HTTP 支持
直接连接到在特定 HTTP 端口上运行的 MCP 服务器
⚙️动态服务器选择
代理可以从可用池中动态选择最适合给定任务的 MCP 服务器
🧩多服务器支持
在单个代理中同时使用多个 MCP 服务器
🛡️工具限制
限制文件系统或网络访问等潜在危险的工具

快速启动

使用 pip:

pip install mcp-use

或者从源安装:

git clone https://github.com/pietrozullo/mcp-use.git
cd mcp-use
pip install -e .

安装 LangChain 提供程序

mcp_use 通过 LangChain 与各种 LLM 提供程序兼容。您需要根据所选的 LLM 安装相应的 LangChain 提供程序包。例如:

# For OpenAI
pip install langchain-openai

# For Anthropic
pip install langchain-anthropic

# For other providers, check the [LangChain chat models documentation](https://python.langchain.com/docs/integrations/chat/)

并将您想要使用的提供商的 API 密钥添加到您的.env文件中。

OPENAI_API_KEY=
ANTHROPIC_API_KEY=

重要提示:只有具备工具调用功能的模型才能与 mcp_use 配合使用。请确保您选择的模型支持函数调用或工具使用。

工具地址

GitHub:https://github.com/pietrozullo/mcp-use
版权声明 1 本网站名称:Applnn
2 本站永久网址:www.applnn.com
3 GitHub无法访问下载解决教程:点击查看
4 本站发布的文章及附件仅限用于学习和研究,不得用于商业或非法用途,否则后果请用户自负!
5 本站信息来自网络收集整理,版权争议与本站无关,仅供学习研究,如有侵权请联系客服删除!
6 如果您喜欢该程序和内容,请支持正版,购买注册,得到更好的正版服务。
7 本站资源大多存储在云盘,如发现链接失效,请联系我们我们会第一时间更新。

给TA打赏
共{{data.count}}人
人已打赏
0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索