0%

所有的文章会迁移到微信公众号,如果对我的文章和分享感兴趣的可以关注一下我的公众号,后续的文章会同步在公众号中分享和发表。

再次感谢大家的关注,谢谢!

qrcode_for_gh_e914d7da908b_258

项目介绍

本项目旨在构建一个“语音驱动的数字人”,通过语音识别、自然语言理解与语音合成,实现与用户的自然对话交互。用户只需对着麦克风说话,系统即可自动识别语音内容,通过大语言模型生成回答,并将结果实时语音播放,提供类人对话体验。

核心流程如下:

  1. 用户说话
  2. Whisper 识别语音转文本(ASR)
  3. 使用 Ollama 本地大模型理解/回答问题(LLM)
  4. 使用 EdgeTTS 语音合成回答内容(TTS)
  5. 播放生成的语音回应

该系统适用于智能助手、教育机器人、客户服务等场景,支持本地部署,保障数据安全与响应速度。

阅读全文 »

随着人工智能(AI)技术的迅猛发展,AI助手与应用程序之间的高效通信变得尤为重要。模型上下文协议(Model Context Protocol,简称MCP)应运而生,旨在为大型语言模型(LLMs)与外部数据源和工具之间提供标准化的接口。在MCP的众多特性中,Streamable HTTP传输机制作为一种现代化的通信方式,正在逐渐取代传统的Server-Sent Events(SSE)传输方式,成为AI通信的新标准。

image-20250513181409075

阅读全文 »

今天,Cursor 官方宣布了一个好消息。Cursor 现在对学生免费开放一年。

这一消息就像一颗石子投入平静的湖面,在编程教育领域激起了层层涟漪。Cursor这么做,就是为了让学生们能更轻松地用上AI编程工具,给编程教育和创新发展添把火。

image-20250507112738421

阅读全文 »

大模型原生支持MCP协议是什么意思?

在前面的文章中,我们一起从零开始搭建了适配所有大模型的MCP Client,无论我们选择什么大模型,都可以完成MCP工具的调用。由于我们实现的方式是通过在系统提示词中对大模型的输出内容进行限制,并强制规范了大模型的输出结果,当大模型要进行工具调用时,我们利用提示词要求大模型按照MCP协议输出对应的规范化结果。这样做虽然降低了我们大模型的选择门槛,但是同样会带来一些问题,其中最突出的一个问题就是,一但大模型没有按照MCP协议的要求输出规范化的结果,那么就会导致MCP工具调用失败,正是由于这种不确定性的存在,导致很多企业不放心真正在生产中去使用MCP相关工具,仍然停留在测试环节中。

随着大型语言模型(LLM)的进一步发展,大模型对于MCP协议的支持度,也成为了消费者在选择大模型的上的一个参考标准。大模型“原生支持MCP协议”意味着该模型自身具备内置的、遵循 MCPModel Context Protocol,模型上下文协议)规范的能力,无需额外的适配层或中间件,就能直接与各种数据源、工具和服务进行双向、安全、高效的通信。这样的原生支持不仅提升了模型在调用外部接口时的速度和稳定性,也简化了开发者的集成工作,让模型与应用间的交互如同“开箱即用”般流畅。

说得通俗一点,原生支持MCP协议的大模型,就是模型在微调阶段,使用了MCP协议相关的数据对模型进行过微调,使得大模型原生就知道MCP协议的规范,那么在调用MCP工具时,大大降低大模型出错的可能性。

阅读全文 »

背景介绍

在当前大模型蓬勃发展的背景下,专为大模型调用设计的”API工具”——MCP,已成为研究领域的焦点。在之前的两个教程中,我们从零开始指导大家实现了MCP ServerMCP Client。通过这个过程,相信大家已经意识到MCP Server本质上是为大模型提供的一种格式化API接口。

说到这里,很多同学可能会思考:市场上已有海量API资源,但它们大多未被转化为MCP格式。如果想调用这些API,还需要重新编写一遍,确实比较繁琐。那么,有没有一种工具能够将我们现有的API一键转换为MCP格式呢?

答案是肯定的。今天我们要向大家介绍的正是这样一个项目——FastAPI-MCP。该项目实现了从FastAPIMCP Server的无缝转换,让我们之前使用FastAPI开发的接口能够轻松转化为MCP Server,供大模型直接调用,大大提高了开发效率。

FastAPI-MCP项目地址:https://github.com/tadata-org/fastapi_mcp

阅读全文 »

什么是MCP-Client?

MCP-ClientModel Context Protocol(模型上下文协议)架构中的一个重要组件,用于连接AI模型(如ClaudeGPT等大型语言模型)与外部数据源、工具和服务的桥梁。

MCP(Model Context Protocol)是由Anthropic公司在2024年底首次提出并开源的一种开放标准协议,旨在解决大语言模型(LLM)与外部世界的连接问题。这一协议的核心价值在于打破了AI模型的”信息孤岛”限制,使模型能够以标准化的方式访问和处理实时数据,显著扩展了大模型的应用场景。

MCP架构中,有三个关键组件:

  1. MCP服务器(Server):轻量级服务程序,负责对接具体数据源或工具(如数据库、API等),并按照MCP规范提供标准化的功能接口。每个MCP服务器封装了特定的能力,如文件检索、数据库查询等。
  2. MCP客户端(Client):嵌入在AI应用中的连接器,与MCP服务器建立一对一连接,充当模型与服务器之间的桥梁。它负责发现可用服务、发送调用请求、获取结果,并将这些信息传递给AI模型。
  3. 宿主应用(Host):运行LLM的应用程序或环境,如Claude桌面应用、Cursor IDE等。宿主通过集成MCP客户端,使其内部的模型能够调用外部MCP服务器的能力。

MCP-Client的工作原理是基于JSON-RPC 2.0协议,通过标准化的接口与MCP服务器进行通信。它能够自动发现可用的MCP服务器及其提供的工具,并将这些信息以结构化的方式提供给大语言模型,使模型能够理解可用的工具及其功能,从而根据用户需求决定何时何地调用这些工具。

阅读全文 »

MCP Server概念

MCP Server 是一个中间层服务器,它主要负责处理和管理 AI 模型的上下文信息,确保模型能够高效且准确地理解和响应用户请求。它作为应用程序和AI模型之间的桥梁,优化了信息的传递和处理过程。

​ 根据MCP协议定义,Server可以提供三种类型的标准能力,Resources、Tools、Prompts,每个Server可同时提供者三种类型能力或其中一种。

  • Resources:资源,类似于文件数据读取,可以是文件资源或是API响应返回的内容。比如
  • Tools:工具,第三方服务、功能函数,通过此可控制LLM可调用哪些函数。
  • Prompts:提示词,为用户预先定义好的完成特定任务的模板。
阅读全文 »

基础概念

什么是Cursor?

Cursor是一个革新性的AI驱动的代码编辑器(IDE),它基于Visual Studio Code构建,但集成了强大的AI功能,旨在提升开发者的编程效率。以下是Cursor的主要特点:

  1. 核心功能:

    • AI驱动的代码编辑和自动完成

    • 内联代码修改和历史记录追踪

    • GPT模型的无缝集成

    • 专门的代码智能体用于全面的代码库管理

    • 全面支持适配MCP协议

    • 多编程语言支持

  2. 主要特色:

    • Tab智能补全 - 能准确预测并补全多行代码

    • 内联聊天 - 直接在代码中进行AI辅助编辑和查询

    • 侧边栏聊天 - 提供更全面的AI助手功能

    • 上下文感知 - 能理解整个代码库的上下文

阅读全文 »

什么是uv工具

uv 是一个用于 Python 包管理的现代工具,它旨在替代 pipvirtualenv,提供更快、更高效的包安装与虚拟环境管理体验。uv 是由 Astral 团队开发的,并逐渐成为 Python 社区中的一个热门替代工具。

简而言之,uv 是一个 超快的 Python 包管理器,它集成了:

  • 包安装(替代 pip
  • 虚拟环境管理(替代 virtualenv
  • 锁定文件(兼容 pip-toolsPoetry
阅读全文 »