所有的文章会迁移到微信公众号,如果对我的文章和分享感兴趣的可以关注一下我的公众号,后续的文章会同步在公众号中分享和发表。
再次感谢大家的关注,谢谢!
所有的文章会迁移到微信公众号,如果对我的文章和分享感兴趣的可以关注一下我的公众号,后续的文章会同步在公众号中分享和发表。
再次感谢大家的关注,谢谢!
随着人工智能(AI
)技术的迅猛发展,AI助手与应用程序之间的高效通信变得尤为重要。模型上下文协议(Model Context Protocol
,简称MCP
)应运而生,旨在为大型语言模型(LLMs
)与外部数据源和工具之间提供标准化的接口。在MCP
的众多特性中,Streamable HTTP
传输机制作为一种现代化的通信方式,正在逐渐取代传统的Server-Sent Events(SSE)
传输方式,成为AI
通信的新标准。
今天,Cursor 官方宣布了一个好消息。Cursor 现在对学生免费开放一年。
这一消息就像一颗石子投入平静的湖面,在编程教育领域激起了层层涟漪。Cursor这么做,就是为了让学生们能更轻松地用上AI编程工具,给编程教育和创新发展添把火。
在前面的文章中,我们一起从零开始搭建了适配所有大模型的MCP Client
,无论我们选择什么大模型,都可以完成MCP
工具的调用。由于我们实现的方式是通过在系统提示词中对大模型的输出内容进行限制,并强制规范了大模型的输出结果,当大模型要进行工具调用时,我们利用提示词要求大模型按照MCP
协议输出对应的规范化结果。这样做虽然降低了我们大模型的选择门槛,但是同样会带来一些问题,其中最突出的一个问题就是,一但大模型没有按照MCP
协议的要求输出规范化的结果,那么就会导致MCP
工具调用失败,正是由于这种不确定性的存在,导致很多企业不放心真正在生产中去使用MCP
相关工具,仍然停留在测试环节中。
随着大型语言模型(LLM
)的进一步发展,大模型对于MCP
协议的支持度,也成为了消费者在选择大模型的上的一个参考标准。大模型“原生支持MCP
协议”意味着该模型自身具备内置的、遵循 MCP
(Model Context Protocol
,模型上下文协议)规范的能力,无需额外的适配层或中间件,就能直接与各种数据源、工具和服务进行双向、安全、高效的通信。这样的原生支持不仅提升了模型在调用外部接口时的速度和稳定性,也简化了开发者的集成工作,让模型与应用间的交互如同“开箱即用”般流畅。
说得通俗一点,原生支持
MCP
协议的大模型,就是模型在微调阶段,使用了MCP
协议相关的数据对模型进行过微调,使得大模型原生就知道MCP
协议的规范,那么在调用MCP
工具时,大大降低大模型出错的可能性。
在当前大模型蓬勃发展的背景下,专为大模型调用设计的”API
工具”——MCP
,已成为研究领域的焦点。在之前的两个教程中,我们从零开始指导大家实现了MCP Server
和MCP Client
。通过这个过程,相信大家已经意识到MCP Server
本质上是为大模型提供的一种格式化API
接口。
说到这里,很多同学可能会思考:市场上已有海量API资源,但它们大多未被转化为MCP
格式。如果想调用这些API
,还需要重新编写一遍,确实比较繁琐。那么,有没有一种工具能够将我们现有的API
一键转换为MCP
格式呢?
答案是肯定的。今天我们要向大家介绍的正是这样一个项目——FastAPI-MCP
。该项目实现了从FastAPI
到MCP Server
的无缝转换,让我们之前使用FastAPI
开发的接口能够轻松转化为MCP Server
,供大模型直接调用,大大提高了开发效率。
FastAPI-MCP
项目地址:https://github.com/tadata-org/fastapi_mcp
MCP-Client
是Model Context Protocol
(模型上下文协议)架构中的一个重要组件,用于连接AI
模型(如Claude
、GPT
等大型语言模型)与外部数据源、工具和服务的桥梁。
MCP(Model Context Protocol)
是由Anthropic
公司在2024年底首次提出并开源的一种开放标准协议,旨在解决大语言模型(LLM
)与外部世界的连接问题。这一协议的核心价值在于打破了AI
模型的”信息孤岛”限制,使模型能够以标准化的方式访问和处理实时数据,显著扩展了大模型的应用场景。
在MCP
架构中,有三个关键组件:
Server
):轻量级服务程序,负责对接具体数据源或工具(如数据库、API
等),并按照MCP规范提供标准化的功能接口。每个MCP
服务器封装了特定的能力,如文件检索、数据库查询等。Client
):嵌入在AI
应用中的连接器,与MCP
服务器建立一对一连接,充当模型与服务器之间的桥梁。它负责发现可用服务、发送调用请求、获取结果,并将这些信息传递给AI
模型。Host
):运行LLM
的应用程序或环境,如Claude
桌面应用、Cursor IDE
等。宿主通过集成MCP
客户端,使其内部的模型能够调用外部MCP
服务器的能力。MCP-Client
的工作原理是基于JSON-RPC 2.0
协议,通过标准化的接口与MCP
服务器进行通信。它能够自动发现可用的MCP
服务器及其提供的工具,并将这些信息以结构化的方式提供给大语言模型,使模型能够理解可用的工具及其功能,从而根据用户需求决定何时何地调用这些工具。
MCP Server
是一个中间层服务器,它主要负责处理和管理 AI 模型的上下文信息,确保模型能够高效且准确地理解和响应用户请求。它作为应用程序和AI
模型之间的桥梁,优化了信息的传递和处理过程。
根据MCP协议定义,Server可以提供三种类型的标准能力,Resources、Tools、Prompts,每个Server可同时提供者三种类型能力或其中一种。