今天,Cursor 官方宣布了一个好消息。Cursor 现在对学生免费开放一年。
这一消息就像一颗石子投入平静的湖面,在编程教育领域激起了层层涟漪。Cursor这么做,就是为了让学生们能更轻松地用上AI编程工具,给编程教育和创新发展添把火。

今天,Cursor 官方宣布了一个好消息。Cursor 现在对学生免费开放一年。
这一消息就像一颗石子投入平静的湖面,在编程教育领域激起了层层涟漪。Cursor这么做,就是为了让学生们能更轻松地用上AI编程工具,给编程教育和创新发展添把火。

在前面的文章中,我们一起从零开始搭建了适配所有大模型的MCP Client,无论我们选择什么大模型,都可以完成MCP工具的调用。由于我们实现的方式是通过在系统提示词中对大模型的输出内容进行限制,并强制规范了大模型的输出结果,当大模型要进行工具调用时,我们利用提示词要求大模型按照MCP协议输出对应的规范化结果。这样做虽然降低了我们大模型的选择门槛,但是同样会带来一些问题,其中最突出的一个问题就是,一但大模型没有按照MCP协议的要求输出规范化的结果,那么就会导致MCP工具调用失败,正是由于这种不确定性的存在,导致很多企业不放心真正在生产中去使用MCP相关工具,仍然停留在测试环节中。
随着大型语言模型(LLM)的进一步发展,大模型对于MCP协议的支持度,也成为了消费者在选择大模型的上的一个参考标准。大模型“原生支持MCP协议”意味着该模型自身具备内置的、遵循 MCP(Model Context Protocol,模型上下文协议)规范的能力,无需额外的适配层或中间件,就能直接与各种数据源、工具和服务进行双向、安全、高效的通信。这样的原生支持不仅提升了模型在调用外部接口时的速度和稳定性,也简化了开发者的集成工作,让模型与应用间的交互如同“开箱即用”般流畅。
说得通俗一点,原生支持
MCP协议的大模型,就是模型在微调阶段,使用了MCP协议相关的数据对模型进行过微调,使得大模型原生就知道MCP协议的规范,那么在调用MCP工具时,大大降低大模型出错的可能性。
在当前大模型蓬勃发展的背景下,专为大模型调用设计的”API工具”——MCP,已成为研究领域的焦点。在之前的两个教程中,我们从零开始指导大家实现了MCP Server和MCP Client。通过这个过程,相信大家已经意识到MCP Server本质上是为大模型提供的一种格式化API接口。
说到这里,很多同学可能会思考:市场上已有海量API资源,但它们大多未被转化为MCP格式。如果想调用这些API,还需要重新编写一遍,确实比较繁琐。那么,有没有一种工具能够将我们现有的API一键转换为MCP格式呢?
答案是肯定的。今天我们要向大家介绍的正是这样一个项目——FastAPI-MCP。该项目实现了从FastAPI到MCP Server的无缝转换,让我们之前使用FastAPI开发的接口能够轻松转化为MCP Server,供大模型直接调用,大大提高了开发效率。
FastAPI-MCP项目地址:https://github.com/tadata-org/fastapi_mcp
MCP-Client是Model Context Protocol(模型上下文协议)架构中的一个重要组件,用于连接AI模型(如Claude、GPT等大型语言模型)与外部数据源、工具和服务的桥梁。
MCP(Model Context Protocol)是由Anthropic公司在2024年底首次提出并开源的一种开放标准协议,旨在解决大语言模型(LLM)与外部世界的连接问题。这一协议的核心价值在于打破了AI模型的”信息孤岛”限制,使模型能够以标准化的方式访问和处理实时数据,显著扩展了大模型的应用场景。
在MCP架构中,有三个关键组件:
Server):轻量级服务程序,负责对接具体数据源或工具(如数据库、API等),并按照MCP规范提供标准化的功能接口。每个MCP服务器封装了特定的能力,如文件检索、数据库查询等。Client):嵌入在AI应用中的连接器,与MCP服务器建立一对一连接,充当模型与服务器之间的桥梁。它负责发现可用服务、发送调用请求、获取结果,并将这些信息传递给AI模型。Host):运行LLM的应用程序或环境,如Claude桌面应用、Cursor IDE等。宿主通过集成MCP客户端,使其内部的模型能够调用外部MCP服务器的能力。MCP-Client的工作原理是基于JSON-RPC 2.0协议,通过标准化的接口与MCP服务器进行通信。它能够自动发现可用的MCP服务器及其提供的工具,并将这些信息以结构化的方式提供给大语言模型,使模型能够理解可用的工具及其功能,从而根据用户需求决定何时何地调用这些工具。
MCP Server 是一个中间层服务器,它主要负责处理和管理 AI 模型的上下文信息,确保模型能够高效且准确地理解和响应用户请求。它作为应用程序和AI模型之间的桥梁,优化了信息的传递和处理过程。
根据MCP协议定义,Server可以提供三种类型的标准能力,Resources、Tools、Prompts,每个Server可同时提供者三种类型能力或其中一种。
Datasets由Hugging Face开源,用于轻松访问和共享音频、计算机视觉和自然语言处理(NLP)任务的数据集。只需一行代码即可加载数据集,并使用强大的数据处理方法快速让你的数据集准备好在深度学习模型中进行训练。在Apache Arrow格式的支持下,以零拷贝读取的方式处理大型数据集,没有任何内存限制,以实现最佳速度和效率。
并且Datasets还与Hugging Face Hub深度集成,允许我们轻松加载数据集并与更广泛的机器学习社区共享数据集。
Datasets可以用来构建3中形式的数据:
为了演示效果,在这里我仅以文本数据为例进行相关演示,关于音频和图像的使用,各位可以前往Hugging Face官网学习。
Transformers中的Tokenizers(分词器)是处理文本的重要组件,它将原始文本转换为模型能够理解的数字序列。
Tokenizers的作用:
token序列token映射为数字ID,这些ID是模型实际处理的输入[CLS], [SEP], [PAD]等特殊标记