0%

所有的文章会迁移到微信公众号,如果对我的文章和分享感兴趣的可以关注一下我的公众号,后续的文章会同步在公众号中分享和发表。

再次感谢大家的关注,谢谢!

qrcode_for_gh_e914d7da908b_258

Coze基本介绍

img

扣子是新一代 AI Agent 开发平台。无论你是否有编程基础,都可以在扣子上快速搭建基于大模型的各类 AI 应用,并将 AI 应用发布到各个社交平台、通讯软件,也可以通过 API 或 SDK 将 AI 应用集成到你的业务系统中。

阅读全文 »

ORM概述

ORM = Object Relational Mapping(对象关系映射)。它是一种 让你用面向对象的方式操作数据库 的技术。

一句话解释:
ORM = 把 Python(或其他语言)里的对象 ↔ 数据库里的表记录 互相转换的工具。

举个最直观的例子:

不用 ORM(纯 SQL)

1
2
3
cursor.execute("SELECT id, name, age FROM users WHERE id = 1")
row = cursor.fetchone()
user = {"id": row[0], "name": row[1], "age": row[2]}

使用 ORM(以 SQLAlchemy 为例)
1
user = session.query(User).filter_by(id=1).first()

数据库里的users表,就像程序里的一个User类;每个数据行就是类的实例。

也就是说:

数据库表 → 类(Class)

数据行 → 对象(Object)

表字段 → 类属性(Attribute)

阅读全文 »

一、创建大模型请求函数

由于后续的课程中会使用到大模型去做相关的实验,所以需要提前准备一个大模型API,用于后续调用。

可以直接使用Ollama,也可以使用其他厂商的API【例如:deepseek,qwen,豆包等等】。

或者参考我的博客教程

1
from utils.llms import OllamaChat
1
2
3
4
5
chat_model = OllamaChat(
system_message="nothink",
url='http://localhost:6008/api/chat',
model_name='qwen3:8b'
)
1
2
3
responses = chat_model.chat("你好,你是谁?", stream=True)
for response in responses:
print(response, end="", flush=True)
<think>

</think>

你好!我是Qwen,是阿里巴巴集团旗下的通义实验室自主研发的超大规模语言模型。我能够进行多轮对话、回答问题、创作文字,比如写故事、写邮件、写剧本等,还能进行逻辑推理、多语言翻译、代码生成等任务。我的目标是让每个人都能更轻松地获取信息、表达想法和创造内容。有什么我可以帮助你的吗?
阅读全文 »

PostgreSQL简介

PostgreSQL(简称 Postgres)是一款开源、企业级、稳定且功能非常强大的关系型数据库系统。

它始于 1986 年加州大学伯克利分校的 POSTGRES 项目,至今已经发展为:

最先进、最强大的开源关系数据库。

MySQLSQLite 是同等级别的数据库产品,但定位更偏向企业级和高端应用。

Mysql不同的是,Postgredatabasetable之间还有一个schema层。默认的情况下,创建好database后会自动创建并应用一个public schema

阅读全文 »

coze 工作流的原理与发展趋势

Coze 工作流:概念与原理

概念定位

  • Coze 是一个 AI 智能体 / Agent 开发平台,将大语言模型、插件、记忆、知识库、代码节点等能力整合起来。
  • 在该平台中,“工作流”(workflow)是用于把多个能力模块(如插件、LLM、代码、判断条件、知识库等)以可视化的节点方式组合起来,形成一个有控制逻辑、有数据流转、可执行的业务流程。
  • 工作流可以看作是“业务逻辑编排层”,在 Bot / Agent 接收输入之后,根据需要调用工作流来完成具体的功能。Chatflow(聊天流程)可以被视为一种有专门交互流程的工作流。
阅读全文 »

Mysql8.0介绍

MySQL 8.0 是 Oracle 公司在 2018 年正式发布的主流开源关系型数据库版本,相比 5.7 有 跨时代的改进。它在性能、可扩展性、安全性、JSON 处理、事务特性以及可观测性等方面都做了很大升级,目前已成为互联网、金融、电商等领域最常用的数据库之一。

阅读全文 »

大模型私有化部署的意义、场景与整体流程

为什么要进行大模型私有化部署?

当前大语言模型(LLMs)如 ChatGPTDeepSeekQwenClaude 等迅速发展,在自然语言处理、知识问答、代码生成、办公助手等方面展现出强大能力。然而,很多企业、高校和组织在应用这些模型时,会面临以下问题

  1. 数据隐私与安全
    • 对话内容、业务数据传输至公有云存在泄密风险。
    • 合规要求限制外部数据传输(如《数据安全法》《个人信息保护法》)。
  2. 稳定性与成本控制
    • 公有 API 的调用成本昂贵,且调用次数或速率受限。
    • 外部模型可能因网络波动、访问限制而无法使用。
  3. 对边缘计算和本地部署的需求
    • 一些工业、政务、医疗等场景下只能部署在本地或内网。

因此,大模型私有化部署应运而生:将开源模型部署在本地服务器、GPU 算力平台、云原生平台或边缘设备中,构建独立的智能服务系统。

阅读全文 »

项目介绍

本项目旨在构建一个“语音驱动的数字人”,通过语音识别、自然语言理解与语音合成,实现与用户的自然对话交互。用户只需对着麦克风说话,系统即可自动识别语音内容,通过大语言模型生成回答,并将结果实时语音播放,提供类人对话体验。

核心流程如下:

  1. 用户说话
  2. Whisper 识别语音转文本(ASR)
  3. 使用 Ollama 本地大模型理解/回答问题(LLM)
  4. 使用 EdgeTTS 语音合成回答内容(TTS)
  5. 播放生成的语音回应

该系统适用于智能助手、教育机器人、客户服务等场景,支持本地部署,保障数据安全与响应速度。

阅读全文 »

随着人工智能(AI)技术的迅猛发展,AI助手与应用程序之间的高效通信变得尤为重要。模型上下文协议(Model Context Protocol,简称MCP)应运而生,旨在为大型语言模型(LLMs)与外部数据源和工具之间提供标准化的接口。在MCP的众多特性中,Streamable HTTP传输机制作为一种现代化的通信方式,正在逐渐取代传统的Server-Sent Events(SSE)传输方式,成为AI通信的新标准。

image-20250513181409075

阅读全文 »