来源:https://zsyhjtnsa5.feishu.cn/docx/TLUqdaU3HoXL55xlk74c6Y1BnQe
在人工智能(AI)浪潮席卷全球,特别是大型语言模型(LLM)和人工智能生成内容(AIGC)技术日新月异的今天,掌握核心技术原理并将其有效应用于实际场景已成为个人和企业保持竞争力的关键。本系列课程(DS-01 至 DS-07)旨在提供一个全面、深入且实践导向的学习路径,引领学员系统性地探索 AI、AIGC 和 LLM 的世界,并重点聚焦于高性能开源模型 DeepSeek 及其生态的应用与开发。
课程体系从 AI 的基础概念、发展脉络讲起,逐步深入到 LLM 的核心架构(如 Transformer)、关键技术(如 RAG、微调、MoE、FP8)、实用的提示词工程,再到具体的 API 调用、进阶开发技巧(JSON Mode、Function Calling/Tool Use)、先进的多智能体框架(AutoGen)以及企业级 AI 应用构建平台(Dify)。通过理论讲解、技术剖析、案例分析和动手实践,本系列课程致力于将前沿的 AI 知识转化为学员可掌握、可应用的实际能力。
本系列课程的核心价值在于其系统性、深度性、实践性以及对** DeepSeek 生态**的聚焦:
-
系统性知识构建: 从 AI 基础(DS-01)到特定模型(DS-02)、从基础技能(DS-03, DS-04)到高级开发(DS-05)、再到复杂系统构建(DS-06)和企业级部署(DS-07),形成完整的知识链路。
-
DeepSeek 深度聚焦: 深入解析 DeepSeek V3/R1 的技术原理、性能优势和开源贡献(DS-02),并将其 API 和模型应用于提示词优化(DS-03)、API 开发(DS-04, DS-05)、多智能体(DS-06)和平台集成(DS-07)等多个环节。
-
前沿技术覆盖: 涵盖当前 LLM 领域的热点技术,如 RAG(DS-01, DS-05, DS-07)、Function Calling/Tool Use(DS-05, DS-06)、多智能体(DS-06)、LLMOps 平台(DS-07)等。
-
强调动手实践: 大量课程模块包含编程实践、案例分析和工具使用(如 Cherry Studio, 飞书多维表格, Python, AutoGen, Dify),确保学员能够学以致用。
-
面向企业应用: 不仅关注技术本身,也探讨企业级应用的挑战、最佳实践、数据安全、成本优化和伦理责任(DS-01, DS-07),助力技术在商业场景成功落地。
本系列课程覆盖广泛,适合不同背景和需求的学习者:
-
AI 技术开发者与工程师: 希望系统学习 LLM 原理,掌握 DeepSeek API 开发、进阶技巧(JSON, Tool Use)、多智能体(AutoGen)和 LLMOps 平台(Dify)应用的开发者。
-
AI 研究人员与学生: 对 AI、AIGC、LLM 基础理论、前沿技术(MoE, FP8, RAG, Agent)和 DeepSeek 模型特性感兴趣的研究者和在校学生。
-
产品经理与项目经理: 需要了解 AI 技术趋势、应用场景、评估模型能力(DS-01, DS-03)、理解技术实现(DS-04, DS-07)以便更好地规划和管理 AI 项目的人员。
-
企业管理者与决策者: 关注 AI 如何赋能业务,希望了解 AIGC 企业应用策略、挑战、价值主张以及 Dify 这类平台如何加速 AI 落地(DS-01, DS-07)的领导者。
-
AI 爱好者与希望提升效率的职场人士: 对 AI 感兴趣,希望掌握 Prompt 技巧(DS-03)、利用 AI 工具(Cherry Studio, 飞书)提升个人工作效率的普通用户。
根据不同目标受众的需求,我们推荐以下学习路径:
-
基础: DS-01 (AI/AIGC/LLM 基础与 RAG)
-
DeepSeek 核心: DS-02 (DeepSeek V3/R1 深度解析)
-
核心技能: DS-04 (DeepSeek API 获取与使用) -> DS-05 (DeepSeek 进阶开发: JSON, Tool Use, Embeddings, RAG)
-
效率与实践: DS-03 (提示词技巧与效率工具) - 可与 DS-04/05 并行或先修
-
高级应用: DS-06 (AutoGen 多智能体) -> DS-07 (Dify 企业级应用)
-
说明: 这是最完整的技术路径,从基础到高级,全面掌握 DeepSeek 相关开发与应用。
-
核心概念与趋势: DS-01 (AI/AIGC/LLM 基础、应用案例、挑战)
-
模型了解与评估: DS-02 (了解 DeepSeek 特点) -> DS-01 模块 3 (主流 LLM 比较)
-
关键技术理解: DS-01 模块 4 (RAG/微调) -> DS-05 (概览 JSON/Tool Use/RAG 实现)
-
效率提升与工具: DS-03 (提示词与效率工具)
-
企业级平台: DS-07 (Dify 平台理念、功能与价值)
-
说明: 此路径侧重于理解技术概念、应用场景、价值和管理考量,弱化编程细节,但仍需了解关键技术点。
-
基础认知: DS-01 (快速了解 AI/AIGC/LLM 是什么)
-
核心技能: DS-03 (提示词技巧、Cherry Studio、飞书集成)
-
(可选)API 初探: DS-04 (了解 API 基本概念和获取方式)
-
说明: 此路径聚焦于利用现有 AI 工具和提示词技巧直接提升个人生产力。
-
核心: DS-02 (DeepSeek V3/R1 深度解析)
-
开发: DS-04 (API 使用) -> DS-05 (进阶开发)
-
(可选)高级框架: DS-06 (AutoGen), DS-07 (Dify) - 根据需要选择是否集成 DeepSeek。
-
说明: 快速切入 DeepSeek 的技术核心和开发实践。
- 学员也可以根据自身特定需求,选择性学习单个或某几个模块课程。例如,仅对多智能体感兴趣可学习 DS-06,仅需企业级平台知识可学习 DS-07。
本系列课程提供了一个从入门到精通、从理论到实践、聚焦 DeepSeek 生态的 AI 技术学习蓝图。无论您是希望深入技术细节的开发者,还是寻求应用价值的管理者,或是希望提升效率的职场人士,都能在本系列课程中找到适合自己的学习内容和路径,拥抱 AI 带来的变革,共同塑造智能化的未来。
本课程旨在帮助学员全面、深入地理解人工智能(AI)、人工智能生成内容(AIGC)和大型语言模型(LLM)领域的核心概念、技术原理、前沿进展和企业级应用实践。课程将从 AI 的思想源流和技术演进讲起,重点剖析深度学习和 Transformer 架构如何驱动 AIGC 的爆发。深入解析 LLM 的工作原理、能力与局限,并对比分析主流 LLM 的特点与适用场景。详细讲解检索增强生成(RAG)等关键解决方案模式,并通过丰富的行业案例,展示 AIGC/LLM 如何在企业中创造价值。最后,课程将探讨企业应用 AIGC 的最佳实践与挑战,以及伴随技术发展而来的伦理与社会影响,帮助学员在拥抱技术的同时,承担起相应的责任。
本课程适合以下人群:
-
对人工智能、AIGC 和 LLM 感兴趣的技术人员、产品经理、项目经理、管理人员和创业者。
-
希望了解 AIGC/LLM 技术原理及其应用场景的在校学生和研究人员。
-
希望将 AIGC/LLM 技术应用于企业实际业务,提升效率、降低成本、驱动创新的专业人士。
-
关注人工智能伦理和社会影响,希望负责任地推动技术发展的相关人士。
通过本课程的学习,学员将能够:
-
理解 AI、AIGC 和 LLM 领域的核心概念和技术原理。
-
掌握深度学习和 Transformer 架构的关键技术细节。
-
深入理解 LLM 的工作原理、能力与局限,以及 RAG 等关键解决方案模式。
-
掌握评估和比较主流 LLM 的方法,能够根据实际需求进行模型选型。
-
了解 AIGC/LLM 在各行业的应用案例,掌握企业应用 AIGC 的最佳实践。
-
认识到 AIGC 技术带来的伦理和社会影响,能够负责任地推动技术发展。
1 天或 6 小时
-
AI 基础回顾与演进:
-
AI 的起源与梦想,符号主义与连接主义的比较
-
机器学习核心概念:监督学习、无监督学习、强化学习
-
深度学习:连接主义的复兴与突破
-
为何深度学习成为当前 AI 突破的关键?
-
AIGC 的爆发与驱动力:
-
定义与范畴
-
关键驱动因素:算法(Transformer)、算力、数据
-
AIGC 发展时间线关键节点(近三年重点)
-
LLM 定义与核心特征:“大”带来的质变
-
关键要素拆解
-
关键特征:强大语言能力、通用性、涌现能力、上下文学习
-
LLM 工作原理解密:揭开“黑盒”的面纱
-
核心架构:Transformer (再深入)
-
训练流程:从“通才”到“专才”再到“对齐”
-
推理 (Inference):模型如何“说话”
-
LLM 的“幻觉” (Hallucination) 问题:能力伴生的阴影
-
市场格局概览:群雄逐鹿的时代
-
主要玩家阵营:国际巨头、开源力量、国内主要玩家
-
格局特点
-
核心评估维度:如何衡量与比较 LLM?
-
性能 (Performance)
-
多模态能力 (Multi-modal Capability)
-
上下文窗口 (Context Window)
-
开源 vs。 闭源
-
API 易用性 & 成本
-
特定能力倾向
-
代表性 LLM 深度比较
-
国际主流 LLM (以 OpenAI GPT-4o/GPT-4 为标杆)
-
国内主流 LLM (以 DeepSeek V3/R1 为标杆)
-
模型选型考量因素:从需求出发的综合决策
-
核心解决方案模式:检索增强生成 (RAG) —— 让 LLM“开卷考试”
-
为何需要 RAG?
-
RAG 工作流程
-
RAG 的优势与挑战
-
微调 (Fine-tuning) —— 塑造 LLM 的“行为习惯”与“专业技能”
-
什么是微调?
-
微调的核心优势与适用场景
-
微调的核心劣势与挑战
-
何时用 RAG?何时用微调?
-
更深层次的定制:训练/蒸馏细分领域模型 (Brief Mention)
-
业界成熟应用案例剖析 —— AIGC/LLM 价值落地
-
智能客服/虚拟助手、企业知识库问答、代码生成与辅助、自动化内容创作、数据分析等
-
主流云厂商 AIGC 平台 —— 赋能企业级应用
-
制定 AIGC 战略 —— 指明方向,谋定而后动
-
目标导向、场景选择、衡量指标
-
数据隐私与安全 —— 不可逾越的红线
-
API 数据策略评估、私有化部署、数据脱敏、访问控制与权限管理
-
模型选择与集成 —— 平衡艺术与工程挑战
-
"造" vs。 "买" vs。 "改"、集成挑战
-
提示工程 (Prompt Engineering) 的企业化 —— 发挥 LLM 潜力的钥匙
-
成本管理与优化 —— 精打细算,降本增效
-
负责任的 AI (Responsible AI) —— 规避风险,建立信任
-
人才培养与组织变革 —— 赋能于人,适应未来
-
关键知识点回顾 —— 串珠成链,构建体系
-
伦理挑战与社会影响再探讨 —— 深思熟虑,责任在肩
-
深度伪造、就业冲击、知识产权与版权、偏见与歧视、能源消耗、数字鸿沟
-
未来趋势 —— 持续演进,智能无界
-
更强、更原生的多模态,AI Agent 的兴起,个性化与情境化,端侧 LLM 与效率提升,可解释性与可控性提升,与物理世界融合
-
学习资源推荐——持续探索的起点
本课程旨在帮助学员深入理解 DeepSeek AI 及其 V3/R1 系列模型的核心技术原理、架构创新、性能优势、效率特点与开源贡献。课程将从 DeepSeek AI 的独特发展理念讲起,重点剖析 V3/R1 系列在代码和数学领域的标杆地位。详细讲解 MoE 架构、FP8 低精度计算、Flash MLA 等关键技术,以及 DeepEP, DeepGEMM 等核心基础设施库,并通过量化指标来评估其性能和效率。最后,课程将阐明 DeepSeek 的开源策略及其在 AI 社区中的重要意义。
本课程适合以下人群:
-
对 DeepSeek AI 及其 V3/R1 系列模型感兴趣的技术人员、研究人员和开发者。
-
希望深入了解 MoE 架构、FP8 低精度计算等 LLM 前沿技术的专业人士。
-
需要在代码生成和数学推理领域使用高性能 LLM 的工程师和科学家。
-
关注开源 AI 社区发展,希望了解 DeepSeek AI 技术贡献的相关人士。
通过本课程的学习,学员将能够:
-
理解 DeepSeek AI 的公司理念和 V3/R1 系列的战略定位。
-
掌握 DeepSeek V3/R1 的核心技术原理和架构创新(MoE、FP8、Flash MLA 等)。
-
了解 DeepSeek 开源的核心基础设施库(DeepEP, DeepGEMM 等)及其作用。
-
评估 DeepSeek V3/R1 在代码生成和数学推理等领域的性能表现。
-
了解 DeepSeek V3/R1 在计算效率方面的优势。
-
认识到 DeepSeek AI 在开源 AI 社区中的贡献和价值。
0.5 天或 3 小时
-
DeepSeek AI 简介 —— 基础研究与开源精神的践行者
-
关键定位 ① - 基础大模型研究
-
关键定位 ② - 开源贡献
-
V3/R1 系列定位 —— 三位一体的极致追求
-
战略三角:性能、效率、开放性
-
核心标签重申 —— 代码与数学领域的标杆
-
为何聚焦这两个领域?
-
“标杆”地位的确立
-
关键功能点的运行机制
-
混合专家架构 (MoE Architecture)
-
DeepEP (专家并行通信库)
-
EPLB (专家并行负载均衡器)
-
FP8 低精度计算
-
DeepGEMM (FP8 GEMM 计算库)
-
Flash MLA (多长度注意力解码内核)
-
高质量数据策略 (侧重代码/数学)
-
3FS (数据访问加速器)
-
DualPipe (高效流水线并行调度)
-
技术协同:DeepSeek V3 / R1 的训练与推理运行机制概览
-
高效的训练流程 (Training Flow Synergy)
-
优化的推理流程 (Inference Flow Synergy)
-
性能:代码与数学能力的基准表现
-
A. 代码能力基准得分
-
B. 数学/推理能力基准得分
-
C. 性能归因简述
-
效率:MoE 与 FP8 的实际效果
-
A. MoE 架构的效率参数
-
B. FP8 低精度计算的优势指标
-
C. 效率支撑库
-
开放性:开源内容与许可证
-
A. 开源资产清单
-
B. 开源许可证
-
C. 开放性意义简述
-
关键参数与持续迭代
-
A. 上下文窗口长度 (Context Window)
-
B. 快速迭代说明
-
总结:独特价值主张
本课程旨在帮助学员掌握高级提示词技巧,并学会运用 AI 工具(如 Cherry Studio 和飞书多维表格)提升个人和团队的工作效率。课程将从指令模型和推理模型特点分析入手,深入讲解 Prompt 优化策略,并通过实战案例演示如何利用 AI 助手处理邮件、生成会议纪要、进行内容创作、快速学习信息、规划任务等。此外,课程还将详细介绍 Cherry Studio 的功能与使用,以及飞书多维表格与 DeepSeek 的集成,帮助学员将 AI 技术无缝融入日常工作流程,实现效率倍增。
本课程适合以下人群:
-
希望提升 Prompt 编写能力,充分发挥 LLM 潜力的 AI 用户。
-
需要利用 AI 工具提高个人工作效率的职场人士。
-
对 Cherry Studio 和飞书多维表格等 AI 效率工具感兴趣的用户。
-
寻求将 AI 技术应用于团队协作和知识管理的专业人士。
通过本课程的学习,学员将能够:
-
掌握 Prompt 编写的核心原则和高级技巧。
-
针对不同类型的 LLM(指令模型、推理模型)制定有效的 Prompt 优化策略。
-
熟练运用 Cherry Studio 进行 AI 对话、知识管理和任务自动化。
-
掌握飞书多维表格与 DeepSeek 的集成方法,实现内容创作、数据分析等自动化流程。
-
灵活运用 AI 工具解决实际工作问题,提升个人和团队的生产力。
1 天或 6 小时
-
保持并深化“清晰具体”原则
-
不仅要清晰,还要结构化
-
明确受众和输出格式
-
利用角色扮演 (Persona)
-
升级“给模型思考时间”的技巧
-
明确要求分步思考 (Chain-of-Thought, CoT)
-
结合“少样本提示” (Few-Shot Prompting)
-
自我批判与修正 (Self-Critique/Refinement)
-
使用更高级的推理框架 (如 Tree of Thoughts, ToT)
-
迭代与交互式优化
-
将 Prompting 视为迭代过程
-
利用模型的提问能力
-
Deepseek 提示词优化策略
-
提升 Deepseek V3 (指令模型) 输出质量的策略
-
提升 Deepseek R1 (推理模型) 输出质量的策略
-
提升个人日常工作效率的提示词(Prompt)范例
-
快速处理邮件
-
准备会议纪要或总结
-
头脑风暴和内容创作
-
快速学习和信息摘要
-
任务规划和分解
-
Cherry Studio 简介
-
核心定位与功能
-
作为智能助手 (Assistant)
-
作为智能体 (Agent)
-
作为知识库 (Knowledge Base)
-
个人典型使用场景总结
-
下载安装以及设置模型服务
-
使用助手
-
默认助手以及助手的配置
-
使用其他内置助手
-
添加自定义助手
-
启用搜索功能
-
启用知识库功能,实现 RAG
-
使用 MCP (待完成)
-
MCP 简介
-
启用 MCP
-
多维文档+Deepseek 集成概述
-
多平台文案改写功能
-
论文解读和输出功能
-
三个关键词生成 AI 故事视频
-
新闻写作提示词
-
美股预测提示词
-
附录
-
飞书账号注册
-
飞书模板中心
本课程旨在帮助学员掌握 DeepSeek 云 API 的获取、配置和使用方法,并了解 LLM API 的基本原理和应用场景。课程将从 LLM 与 API 的关系讲起,详细讲解 DeepSeek API 的请求结构、核心参数和编程实践,包括使用 Python 调用 API、处理响应结果和构建交互式应用。此外,课程还将介绍如何安全管理 API 密钥,并对比分析 API 调用与本地部署的优劣势,帮助学员充分利用 DeepSeek API 赋能各种应用开发。
本课程适合以下人群:
-
希望使用 DeepSeek API 进行 AI 应用开发的程序员和开发者。
-
需要了解 LLM API 工作原理和调用方式的技术人员。
-
关注 API 安全管理,希望保障账户和数据安全的专业人士。
-
希望通过 API 快速利用 LLM 能力,提升工作效率的职场人士。
通过本课程的学习,学员将能够:
-
理解 LLM 与 API 的关系,掌握 API 的基本概念和作用。
-
掌握 DeepSeek API 的请求结构和认证方式。
-
熟练使用 Python 和 openai 库调用 DeepSeek API。
-
理解 DeepSeek API 的核心参数,并根据需求进行配置。
-
掌握 API 密钥的安全管理最佳实践。
-
了解 API 调用与本地部署的优劣势,能够根据实际情况做出选择。
1 天或 6 小时
-
大语言模型(LLM)与 API 的关系:一座便捷的桥梁
-
LLM API 工作原理、调用方式与通用适用场景
-
API 调用 vs 本地部署:优劣势对比与选择考量
-
DeepSeek 模型家族介绍:特点、优势与版本概览
-
API 提供平台概览
-
各平台账号注册、认证流程简介
-
如何在平台申请 DeepSeek API Key
-
API 定价与计费模型详解(免费额度、付费标准)
-
API 密钥的安全管理最佳实践
-
API 调用基础:HTTP 请求结构与认证
-
核心 API 参数详解
-
编程实践
-
使用 Python 和 openai 库调用 DeepSeek API
-
响应结果解析与错误处理
-
示例:构建一个简单的交互式命令行应用
-
本地部署的优势与挑战
-
DeepSeek 不同模型版本对硬件(CPU, RAM, VRAM)的需求分析
-
本地模型格式(如 GGUF)与下载来源(如 Hugging Face)
-
使用 LM Studio 部署和测试 DeepSeek 模型
-
(可选) 其他本地部署工具简介
本课程聚焦于 DeepSeek 大模型的高级开发技巧,助您构建更智能的应用。核心内容包括:学习使用 JSON Mode 强制模型输出结构化的 JSON** 数据,便于自动化****处理与系统集成;掌**握 Function Calling / Tool Use 机制,让模型能够调用外部 API 或工具(如搜索引擎),获取实时信息并执行操作,突破自身知识限制。此外,课程还将介绍 Embeddings API 的应用和简单 RAG 系统的实现,以增强模型的知识问答能力,并探讨高效的 Prompt 管理策略。完成本课程后,学员将能开发出具备结构化输出、工具调用和知识增强能力的 DeepSeek 应用。
本课程适合以下人群:
-
已掌握 DeepS****eek API 基本使用方法,希望进行进阶开发,构建更复杂、更智能 AI 应用的程序员和开发者。
-
需要让 LLM 输出结构化数据****(JSON),或需要模型能与外部系统/API 交互(工具调用) 的专业人士。
-
希望利用 Embeddings** 进行文本表示和相似度计算**,或初步尝试构建检索增强生成(RAG)系统的技术人员。
-
对 Function Calling / Tool Use 技术感兴趣,希望构建具备**外部能力(如联网搜索) **的 AI 应用或智能体(Agent)雏形的研究人员和工程师。
-
在开发 LLM 应用中遇到 Prompt 管理难题,寻求提高应用可维护性、可扩展性策略的技术人员。
通过本课程的学习,学员将能够:
-
掌握 JSON Mode 的原理与应用,强制 DeepSeek 模型输出符合特定 schema 的结构化 JSON 数据。
-
精通 Function Calling / Tool Use 的核心概念、完整流程及编程实践,让模型能够调用外部函数或 API。
-
能够将 DeepSeek 模型与外部工具(如 SearXNG 搜索引擎)集成,实现实时信息检索等功能。
-
理解 Embeddings API 的作用,并能使用它获取文本向量、计算语义相似度。
-
掌握简单 RAG 的核心流程,并能动手实现一个基础的 RAG 应用雏形。
-
了解并应用高级 Prompt 管理策略,提升复杂 LLM 应用开发的可维护性和效率。
-
综合运用所学技能,构建出更智能、功能更丰富的 DeepSeek 应用原型。
1 天或 6 小时
-
引言
-
工作原理
-
编程实践:使用 Python 和 openai 库获取 JSON 输出
-
JSON Mode 的主要应用场景
-
注意事项
-
核心概念与流程
-
编程实践:使用 Python 和 openai 库实现工具调用 (天气查询示例)
-
工具使用的主要应用场景
-
注意事项
-
引言
-
前提条件
-
核心流程
-
编程实践:实现交互式 SearXNG 网页搜索工具
-
讨论与价值
-
注意事项
-
引言
-
前提条件
-
核心概念
-
编程实践:获取文本向量并计算相似度
-
Embeddings API 的主要应用场景
-
注意事项
-
引言
-
前提条件
-
核心 RAG 流程
-
编程实践:简单的 RAG 实现
-
RAG 的价值与应用
-
简化与局限
-
项目需求描述
-
实现思路分析
-
示例代码
-
代码解析
-
后续优化建议
-
面临的挑战
-
最佳实践与管理策略
-
关键词供自行探索
-
总结
本课程旨在帮助学员掌握 AutoGen 框架,构建强大的多智能体应用。课程将从 AI 智能体与多智能体系统的基本概念讲起,重点学习 AutoGen 的核心组件 ConversableAgent 的使用方法,并逐步深入探讨多种智能体协作模式,包括顺序对话、反思、嵌套对话和群聊。此外,还将学习如何通过 Function Calling/Tool Use 功能赋予智能体调用外部工具的能力,并通过代码生成与执行来实现更复杂的任务。最终,学员将能够根据实际需求设计、构建和编排多智能体系统,解决更复杂、更动态的问题。
本课程适合以下人群:
-
希望学习多智能体系统构建的 AI 工程师和开发者。
-
需要使用 AutoGen 框架实现复杂 AI 应用的专业人士。
-
对智能体协作、工具使用和代码生成等技术感兴趣的研究人员。
-
寻求将 AI 技术应用于团队协作和工作流自动化的从业者。
通过本课程的学习,学员将能够:
-
理解 AI 智能体与多智能体系统的基本概念和优势。
-
掌握 AutoGen 框架的核心理念与组件,特别是 ConversableAgent 的使用方法。
-
能够根据任务需求设计具有不同角色和能力的智能体。
-
掌握使用 initiate_chat 和 initiate_chats 等函数编排多智能体对话流程的技巧。
-
了解反思、嵌套对话和群聊等高级多智能体协作模式,并能够灵活应用。
-
掌握 Function Calling/Tool Use 机制,让智能体能够与外部工具进行交互。
-
能够构建能够生成和执行代码的智能体,实现自动化数据分析等复杂任务。
1 天或 6 小时
-
AI 智能体与多智能体系统简介
-
AutoGen 框架核心理念与优势
-
环境搭建与配置
-
AutoGen 核心组件:ConversableAgent
-
实验 1.1:配置与第一个智能体
-
实验 1.2:双智能体喜剧表演
-
多智能体协作模式:顺序对话
-
使用 initiate_chats 编排顺序对话
-
对话间的信息传递
-
引入人类参与
-
实验 2.1:客户入职流程
-
设计模式:反思(Reflection)
-
核心组件:AssistantAgent 简介
-
设计模式:嵌套对话(Nested Chats)
-
实验 3.1:带反馈的博客文章创作
-
设计模式:工具使用(Tool Use / Function Calling)
-
AutoGen 的工具使用机制:register_function 与 function_map
-
状态管理与工具交互
-
实验 4.1:对话式国际象棋
-
AutoGen 的代码生成与执行能力
-
代码执行器的配置
-
编码任务中的智能体角色
-
实验 5.1:基础金融图表绘制
-
设计模式:多智能体协作(Group Chat)
-
定义群聊成员与角色
-
对话流程管理
-
人类角色的参与
-
实验 6.1:多智能体金融分析报告
-
关键 Agentic Design Patterns 回顾
-
设计多智能体系统的最佳实践与注意事项
-
AutoGen 的局限性与展望
-
在实际项目中应用 AutoGen 与 DeepSeek
本课程旨在帮助学员了解 Dify 平台,并掌握企业级智能应用解决方案的构建方法。课程将从企业 AI 应用开发所面临的挑战入手,深入讲解 Dify 平台的核心定位、设计理念和关键特性。详细介绍如何利用 Dify 提供的可视化编排工具、多模型支持、RAG 引擎和 Agent 框架等功能,实现智能应用的快速开发、安全部署和灵活扩展。通过本课程的学习,学员将能够利用 Dify 构建出高效、可靠且符合企业需求的智能应用解决方案。
本课程适合以下人群:
-
需要构建和部署企业级 AI 应用的技术人员、产品经理和架构师。
-
关注 LLMOps 平台,希望简化 AI 应用开发流程的专业人士。
-
寻求提升数据安全、合规性,并充分利用 AI 能力的企业决策者。
-
对 Dify 平台感兴趣,希望深入了解其功能和应用场景的开发者。
通过本课程的学习,学员将能够:
-
识别并理解企业在开发和部署生成式 AI 应用时面临的主要挑战。
-
准确定义 Dify 平台,并阐述其作为 LLMOps 平台的核心价值和定位。
-
掌握 Dify 平台的核心理念,如 BaaS 和 PaaS 在 AI 应用开发中的体现。
-
熟练运用 Dify 平台的主要功能特性,包括可视化编排、多模型支持、RAG 引擎和 Agent 框架。
-
针对企业场景,分析 Dify 平台在开发效率、数据安全和集成性等方面带来的价值。
-
概述 Dify 平台的系统架构,并识别其关键组件及其相互关系。
-
熟练掌握本课程介绍的关键术语,为后续深入学习奠定基础。
1 天或 6 小时
-
1.1 学习目标
-
1.2 企业 AI 应用开发的挑战与机遇
-
1.3 定义 Dify:一个 LLMOps 平台
-
1.3.1 核心定义与定位
-
1.3.2 关键理念:BaaS 与 PaaS for AI
-
1.4 Dify 平台的核心功能与特性
-
1.4.1 可视化工作流编排 (Visual Workflow Orchestration)
-
1.4.2 多模型支持与管理 (Multi-LLM Support & Management)
-
1.4.3 集成 RAG 引擎 (Integrated RAG Engine - Knowledge Base)
-
1.4.4 Agent 框架 (Agent Framework for Tool Usage)
-
1.4.5 应用模板与 API 发布 (Application Templates & API Publishing)
-
1.5 Dify 对企业的价值主张
-
1.5.1 降低开发门槛,加速应用落地
-
1.5.2 通过私有化部署保障数据安全与合规
-
1.5.3 提供灵活性与可扩展性
-
1.5.4 Dify 的定位比较
-
1.6 Dify 系统架构概览
-
1.6.1 关键服务组件
-
1.6.2 核心依赖组件 (Dependencies)
-
1.7 关键术语 (Key Terms)
-
1.8 本章小结
-
1.9 讨论与思考
-
2.1 学习目标
-
2.2 部署方式概述
-
2.2.1 Dify Cloud (云版本)
-
2.2.2 私有化部署 (Self-Hosted)
-
2.2.3 为何选择私有化部署?
-
2.3 使用 Docker 进行私有化部署 (Self-Hosting with Docker)
-
2.3.1 部署架构与依赖
-
2.3.2 前提条件 (Prerequisites)
-
2.3.3 获取 Dify Docker 部署文件
-
2.3.4 理解与修改 docker-compose.yaml
-
2.3.5 核心配置项调整 (通过环境变量)
-
2.3.6 启动 Dify 服务
-
2.3.7 访问控制台与初始化设置
-
2.3.8 常见部署问题与排查 (Troubleshooting)
-
2.4 连接与配置大语言模型 (LLM)
-
2.4.1 支持的模型提供商类型
-
2.4.2 获取模型访问凭证 (以国内服务商为例)
-
2.4.3 在 Dify 中添加和管理模型 (以 DeepSeek API 为例)
-
2.5 本章小结
-
2.6 实践练习
-
3.1 创建您的第一个聊天机器人应用
-
3.1.1 选择应用类型:对话型
-
3.1.2 基础设置:命名与描述
-
3.2 提示词工程入门 (Introduction to Prompt Engineering in Dify)
-
3.2.1 编写系统指令 (System Prompt)
-
3.2.2 理解并使用变量 (Understanding & Using Variables)
-
3.2.3 上下文管理 (Context Management) 与对话历史
-
3.2.4 调试与预览
-
3.3 发布与集成初步
-
3.3.1 生成 API 接口
-
3.3.2 嵌入 Web 应用
-
3.3.3 查看日志与进行标注
-
3.3.4 应用监测概览
-
3.3.5 其他集成可能性 (展望)
-
3.4 本章小结
-
3.5 实践练习
-
4.1 RAG 概念解析 (Understanding RAG)
-
4.1.1 为什么需要 RAG?
-
4.1.2 RAG 工作流程
-
4.2 Dify 中的知识库 (Knowledge Base in Dify)
-
4.2.1 创建知识库
-
4.2.2 文本处理、分块与向量化
-
4.2.3 管理知识库
-
4.3 将知识库集成到应用中
-
4.3.1 在应用中添加“上下文”节点
-
4.3.2 调试与预览
-
4.3.3 应用场景实例
-
4.3.4 配置检索策略 (引入重排模型)
-
4.4 在 Dify 中构建高效 RAG 应用的最佳实践
-
数据准备:质量优先,预处理是关键
-
知识库配置:精细调整分块与嵌入
-
检索策略:混合检索 + Reranker 优先
-
Prompt 工程:明确指示,引导 LLM
-
测试与评估:持续迭代,数据驱动
-
渐进式优化:先求有,再求好
-
4.5 本章小结
-
4.6 实践练习
-
5.1 Dify Agent 概念解析
-
5.1.1 什么是 Agent?
-
5.1.2 Agent 的工作模式:思考与行动的循环
-
5.2 设计 Agent 的 Prompt (为“热点综述”量身定做)
-
5.2.1 Agent Prompt 设计
-
5.2.2 Prompt 设计要点回顾
-
5.2.3 在 Dify 中配置 Prompt
-
5.3 配置与使用内置工具
-
5.3.1 本例使用的内置工具
-
5.3.2 在 Dify Agent 中启用工具
-
5.3.3 测试与预览
-
5.4 关于自定义工具 (Custom Tools)
-
5.5 Agent 应用场景实例
-
5.6 本章小结
-
5.7 实践练习
-
6.1 工作流 (Workflow) 导论
-
6.1.1 什么是 Dify 工作流?
-
6.1.2 为什么需要工作流?
-
6.1.3 理解 Dify 的编排模式:Workflow, Chatflow 与 Agent
-
6.2 工作流核心组件:认识节点 (Workflow Nodes)
-
6.3 构建您的第一个工作流:花语小能手 (Practical Case: Flower Whisperer)
-
6.3.1 场景定义:从花名到推广帖
-
6.3.2 工作流结构解析
-
6.3.3 在 Dify 中构建工作流
-
6.3.4 运行与测试
-
6.4 实践案例:构建 Chatflow 应用 - 易速客服 (Practical Case: YiSu Customer Service Chatflow)
-
6.4.1 场景定义:智能客服初步响应与转人工
-
6.4.2 Chatflow 结构解析
-
6.4.3 在 Dify 中构建 Chatflow
-
6.4.4 运行与测试 Chatflow
-
6.5 高级工作流/Chatflow 概念与最佳实践
-
6.5.1 错误处理 (Error Handling)
-
6.5.2 优化 (Optimization)
-
6.5.3 发布为 API
-
6.5.4 何时选择 Workflow vs。 Chatflow vs. Agent (决策指南)
-
6.6 工作流/Chatflow 应用场景实例 (拓展)
-
6.7 本章小结
-
6.8 实践练习
-
7.1 集成与扩展 (Integration and Extension)
-
7.1.1 API 对接企业系统
-
7.1.2 Webhook 与回调机制
-
7.1.3 二次开发与定制化
-
7.2 安全与合规 (Security and Compliance)
-
7.2.1 私有化部署的数据安全保障
-
7.2.2 访问控制与权限管理
-
7.2.3 API 密钥安全管理
-
7.2.4 敏感信息过滤与脱敏
-
7.2.5 审计日志与追踪
-
7.3 运维与监控 (Operations and Monitoring)
-
7.3.1 监控 Dify 服务状态
-
7.3.2 应用调用量与 Token 消耗监控
-
7.3.3 知识库更新与维护策略
-
7.3.4 Dify 版本升级
-
7.4 成本与性能优化 (Cost and Performance Optimization)
-
7.4.1 选择合适的 LLM
-
7.4.2 优化 Prompt 减少 Token 消耗
-
7.4.3 RAG 检索效率优化
-
7.4.4 Agent/Workflow 优化
本课程旨在深入探讨高级人工智能(AI)代理(Agent**)的设计、**开发与运维。课程将从 AI Agent 的基础概念和标准框架(如 ReAct)出发,逐步深入到构建复杂、自主、可靠 Agent 所需的核心高级能力,包括高级规划与推理机制、精密的记忆架构与管理、复杂的工具使用与集成策略、多智能体系统(MAS)的设计与协作动力学。此外,课程还将涵盖鲁棒的 Agent 评估方法论以及将 Agent 应用于生产环境的部署、监控与运维(AgentOps)实践。课程将特别关注 Agent 在 规划与推理、工具使用、多智能体协作 以及 生产化运维 方面的核心挑战与实践。通过本课程,学员将掌握构建下一代智能 Agent 的前沿理论、关键技术和最佳实践。
完成本课程后,学员应能够:
-
理解 AI Agent 的核心概念、组件及其与传统软件的区别。
-
分析 标准 Agent 框架(如 ReAct)的能力与局限性。
-
掌握 高级规划与推理算法(如 ToT, MCTS, Plan-and-Act, 图规划)的原理与应用。
-
设计并实现 精密的 Agent 记忆系统(短期、长期、结构化、情景记忆),并掌握有效的记忆管理和上下文窗口管理策略。
-
实现 复杂、安全、可靠的工具使用,包括动态发现、高级编排、错误处理和安全防护。
-
设计和理解 多智能体系统(MAS)的协作框架、通信协议、架构模式和冲突解决策略。
-
掌握 全面的 Agent 评估方法论,熟悉主流基准,能够定义复杂任务成功标准,并评估 Agent 的鲁棒性、安全性与对齐度。
-
理解 Agent 生产化 的关键环节,包括部署架构、可观测性、性能成本优化和安全运维(AgentOps)。
-
了解 AI Agent 技术的当前局限性、挑战以及未来发展趋势。
-
具有一定人工智能、机器学习和编程基础(如 Python)的 AI 工程师、开发者。
-
希望深入研究和开发高级 AI Agent 应用的研究人员和学生。
-
对 Agent 技术在自动化、人机协作、复杂系统模拟等领域应用感兴趣的技术负责人或产品经理。
-
希望将 AI Agent 应用于生产环境并进行有效运维的 DevOps/MLOps/AgentOps 工程师。
-
知识与技能:
-
熟悉 Python 编程基础。
-
了解人工智能 (AI) 和机器学习 (ML) 的基本概念。
-
具备调用 Web API 的基本经验(例如,使用 requests 库)。
-
熟悉 Git 和 GitHub 的基本操作。
-
(推荐)有使用过 Docker 或了解容器化概念。
-
环境与工具准备:
-
安装 Python 3.x 环境。
-
准备好 DeepSeek 开放平台的 API Key。
-
(推荐)安装并配置好 LM Studio 以便运行本地模型。
-
确保拥有稳定的网络连接。
本课程内容根据提供的课件分为以下章节模块。具体的课时分配可根据实际教学安排调整。
-
章节式结构: 课程内容围绕课件的八个核心章节和一个附录展开。
-
理论与实践结合: 每个章节包含理论讲解,部分章节后附有思考题和实践练习建议(参考附录)。
-
建议课时: 3 天或 18 小时
-
AI Agent 定义与核心组件回顾
-
标准 Agent 框架(如 ReAct)的能力与局限性
-
高级 Agent 能力的需求分析
-
高级 Agent 关键能力维度概览
-
超越 ReAct:思维树(ToT)、MCTS 应用、计划-执行分离、图规划
-
层次化规划与控制
-
健壮执行:动态重规划与错误修正
-
推理增强:规划中整合 RAG 与外部知识
-
自我批判与反思
-
Agent 记忆设计模式:短期 vs。 长期,混合架构
-
结构化记忆:知识图谱与向量存储的协同
-
记忆管理:巩固、摘要与反思机制,遗忘机制
-
情景记忆:捕捉具体经验与上下文
-
上下文窗口管理策略
-
动态工具发现与选择机制
-
高级工具编排:顺序、并行、条件、组合
-
健壮的工具错误处理:重试、回退、告知 Agent
-
工具使用的安全风险与最佳实践(深度)
-
标准化趋势:模型上下文协议(MCP)简介
-
自定义工具设计原则
-
高级协作框架:层次化、协商、投票、模拟
-
Agent 间通信:协议、语言与消息结构
-
MAS 架构:集中式 vs。 分散式利弊权衡
-
动态角色分配与团队构建技术
-
MAS 中的冲突解决策略
-
主流 MAS 框架对比分析(AutoGen, CrewAI, LangGraph 等)
-
理解与管理 MAS 中的涌现行为
-
全面的评估方法:系统级、生命周期与多维度考量
-
Agent 基准测试详解(AgentBench, ToolBench 等)
-
定义复杂任务成功标准:中间步骤、工具使用、推理路径
-
评估鲁棒性、安全性与对齐度
-
应对评估挑战:可复现性、成本效益策略
-
组件评估 vs。 系统评估:结合使用进行诊断
-
生产级 Agent 部署架构模式
-
Agent 可观测性:监控、追踪与调试技术
-
性能与成本优化策略(生产环境)
-
生产环境中的 Agent 安全加固
-
关键高级 Agent 设计模式回顾
-
Agent 技术的当前局限性与挑战
-
未来发展方向
-
学习资源与社区推荐
-
实验 **1: **基本 DeepSeek API 调用 (Python) - 目标: 掌握与 LLM API 的基础交互。
-
实验 **2: **模拟工具使用 (天气查询) - 目标: 理解 Agent 调用工具的基本流程(函数调用)。
-
实验 **3: **真实工具使用 (SearXNG 网页搜索) - 目标: 实现 Agent 调用真实外部 API 获取信息。
-
实验 **4: **简单 RAG 实现 (Python) - 目标: 掌握基础 RAG 流程(嵌入-检索-生成)。
-
实验 **5: **AutoGen - 反思模式 (博客文章创作) - 目标: 实践 Agent 间的迭代反馈与优化。
-
实验 **6: **AutoGen - 使用工具与环境交互 (国际象棋) - 目标: 实现 Agent 通过工具与外部状态进行交互。
-
实验 **7: **AutoGen - 代码生成与执行 (金融图表) - 目标: 体验 Agent 生成并执行代码的能力。
-
实验 **8: **AutoGen - 多角色群聊协作 (金融报告) - 目标: 构建并观察多 Agent 协作完成复杂任务。
本课程旨在深入剖析并实践检索增强生成**(Retrieval-Augment**ed Generation, RAG)技术,以克服大型语言模型(LLM)在知识时效性、事实准确性和领域特异性方面的固有局限。课程将从 RAG 的基本概念、必要性及其核心工作流程(检索-增强-生成)入手,系统性地讲解构建高效、可靠 RAG 系统的完整技术栈,包括数据准备与索引(加载、分块、嵌入、存储)、信息检索策略(向量搜索、混合搜索、重排序)、向量数据库内部机制与优化、上下文工程与生成合成技巧。此外,课程还将重点覆盖 RAG 系统的全面评估方法(端到端与组件化、自动化框架如 RAGAS、人工评估)以及生产化部署、监控与最佳实践。课程将特别关注 RAG 流程中的 数据处理、检索优化、生成质量控制 以及 系统评估与生产化 的核心挑战与实践。通过本课程,学员将掌握从理论到实践构建、评估和部署生产级 RAG 系统的核心能力。
完成本课程后,学员应能够:
-
系统性阐述 标准 LLM 的知识局限性以及 RAG 的必要性。
-
精确定义 RAG 概念,并详细描述其高层级工作流程。
-
掌握 RAG 数据准备流水线的关键环节:数据加载、文本分块策略、嵌入模型选择与应用、向量数据库原理与索引构建。
-
实现并优化 RAG 的核心检索机制:向量相似度搜索、混合搜索、重排序策略。
-
理解并应用 向量数据库的关键内部机制(如 ANN 索引算法)和优化策略(如元数据过滤、扩展技术)。
-
掌握 上下文工程与提示工程技巧,以确保生成内容的忠实性、相关性并实现来源引用。
-
理解 RAG 与模型微调(Fine-tuning)的区别与协同潜力。
-
掌握 RAG 系统的端到端与组件化评估方法,熟悉 RAGAS 等自动化评估框架,并理解人工评估的重要性。
-
理解 RAG 系统生产化 的关键考量:架构设计、性能优化、成本管理、安全合规及知识库维护。
-
了解 高级 RAG 架构(如 Self-RAG, Agentic RAG, Multimodal RAG, Graph RAG)和未来发展趋势。
-
需要利用外部知识增强 LLM 应用效果的 AI 工程师、开发者。
-
希望构建企业级智能问答、知识库助手、内容生成等应用的开发者。
-
对信息检索、向量数据库、自然语言处理有兴趣的研究人员和学生。
-
负责评估、部署和运维 LLM 应用的技术负责人或 MLOps/AgentOps 工程师。
-
知识与技能:
-
熟悉 Python 编程基础。
-
了解人工智能 (AI) 和机器学习 (ML) 的基本概念。
-
具备调用 Web API 的基本经验(例如,使用 requests 库)。
-
熟悉 Git 和 GitHub 的基本操作。
-
(推荐)了解向量嵌入和相似度计算的基本概念。
-
环境与工具准备:
-
安装 Python 3.x 环境。
-
准备好 DeepSeek 开放平台(或其他 LLM 平台)的 API Key。
-
(推荐)准备好硅基流动(或其他嵌入模型提供商)的 API Key。
-
(推荐)安装并配置好本地向量数据库(如 ChromaDB)或准备好云向量数据库访问凭证。
-
确保拥有稳定的网络连接。
本课程内容根据提供的课件分为以下章节模块。具体的课时分配可根据实际教学安排调整。
-
章节式结构: 课程内容围绕课件的八个核心章节和一个附录展开。
-
理论与实践结合: 每个章节包含理论讲解,部分章节后附有思考题和实践练习建议(参考附录)。
-
建议课时: 3 天或 18 小时
-
LLM 的知识局限性(幻觉、时效性、私有数据、可验证性)
-
RAG 概念解析与核心理念
-
RAG 高层级工作流程(检索-增强-生成)
-
RAG 核心优势分析
-
对比分析:RAG vs。 模型微调
-
数据加载:多样性数据源与文档加载器
-
文本分块:必要性、基础与高级策略、关键参数(块大小、重叠)
-
文本嵌入:核心概念、模型选择考量、嵌入过程
-
向量存储与索引:向量数据库原理、核心概念、索引构建
-
核心检索机制:向量相似度搜索(查询嵌入、相似度度量、ANN)
-
超越基础相似度:关键词与混合搜索(TF-IDF/BM25, RRF 融合)
-
精度提升:重排序(Re-ranking)原理与交叉编码器应用
-
高级检索策略概览(查询转换、上下文窗口管理等)
-
评估检索性能(Recall, Precision, MRR, NDCG)
-
向量索引算法详解(Flat, IVF, PQ, HNSW, DiskANN)与选择考量
-
元数据过滤策略(前置、后置、集成)与性能影响
-
扩展向量搜索以处理海量数据(分片、复制、硬件加速)
-
处理动态数据:实时更新与增量索引
-
部署模型:云托管 vs。 本地部署的选择
-
上下文工程:优化传递给 LLM 的信息(选择、压缩)
-
处理冲突与噪声:确保信息一致性的策略
-
提示工程:引导 LLM 忠实生成与引用来源
-
微调生成器:超越 Prompt 的模型能力适配
-
端到端评估指标:衡量最终输出质量(答案相关性、忠实度、完整性)
-
组件化评估回顾与整合:诊断瓶颈所在(检索评估、生成评估)
-
自动化评估框架:RAGAS 详解、其他框架概览、LLM 作为裁判
-
人工评估与反馈循环:不可或缺的质量保障
-
架构设计与部署模式(微服务、实时 vs。 异步、容器化)
-
性能优化与可扩展性(延迟、吞吐量、扩展策略)
-
成本管理与监控(成本构成、关键指标、优化策略)
-
安全与合规考量(数据隐私、访问控制、输入/输出防护、审计)
-
知识库更新与维护(自动化流水线、索引策略、版本控制)
-
高级 RAG 架构详解(Self-RAG/CRAG, Agentic RAG, Multimodal RAG, Graph RAG)
-
RAG 与其他技术的融合(RAG + Fine-tuning, RAG + 结构化查询)
-
当前挑战与未来研究方向(长上下文、智能检索、评估、安全等)
-
实验 **1: **Python 基础 RAG 实现 - 目标: 掌握核心 RAG 算法流程与 API 调用。
-
实验 **2: **Gradio + ChromaDB 客服助手 - 目标: 集成本地向量数据库与 Web UI 构建完整应用。
-
实验 3: 文本分块策略对比 - 目标: 理解不同分块策略对上下文质量的影响。
-
实验 **4: **实现并评估重排序 (Re-ranking) - 目标: 掌握使用重排序提升检索精度的方法。
-
实验 **5: **RAG 结合元数据过滤 - 目标: 实现基于元数据的精确检索。
-
实验 **6: **基本 RAG 评估实践 (人工/自动化) - 目标: 掌握 RAG 核心评估指标与方法。
-
实验 **7: **(平台实践) Dify RAG 应用构建 - 目标: 体验平台化 RAG 应用开发流程。
-
实验 **8: **(思路/讨论) RAG 生产化考量 - 目标: 思考 RAG 系统部署运维的实际问题。