关于举办全栈分布式 Agentic AI 实战营:技术内幕、算法源码、企业落地案例实战高级讲座的通知
kiki 2025-04-23 08:55:38 浏览:288
各有关单位:
随着大模型技术进入产业落地阶段,分布式多智能体(Multi - agent)已成为连接巨型模型与企业复杂场景、支撑智能决策的核心枢纽。在新一代智能体开发领域,MCP、A2A、ADK、Reasoning LLMs、Reinforcement Learning、Computer Use 和 Langraph 等正以颠覆性的方式重塑整个大模型智能体产品的落地方法。作为新一代 Agentic AI 产品落地的关键,这一技术体系已在业界引发深远变革,并将永久性地革新企业级智能体系统的构建与运作模式。
这种技术需求的代际跃迁,迫使企业必须从 “系统集成” 思维转向 “数字生命体” 构建。智能体技术不再只是效率工具,而是正在成为连接物理世界与数字世界的神经中枢,企业需要建立全新的技术认知框架与组织能力模型,以应对这场由技术范式迁移引发的商业逻辑重构。根据麦肯锡最新调研,全球 63% 的头部企业已将智能体技术纳入数字化转型核心战略,但技术落地成功率不足 15%。核心问题在于大模型本身行为的不可控性及智能体系统本身 Knowledge Gap 等导致了 Agentic AI 的不可靠性。
为帮助广大企事业单位成功落地分布式大模型智能体技术,构建可控、可靠、可规模化的 Agentic AI 系统,CIIT 项目办公室联合北京智益方信息科技有限公司、北京智联新一代信息技术有限公司,将于 2025 年 6 月 6 日至 6 月 8 日举办线上 “全栈分布式 Agentic AI 实战营:技术内幕、算法源码、企业落地案例实战” 高级讲座。讲座由曾领导多个企业级大模型与 Agent 产品的架构设计和开发的人工智能专家亲自授课。课程基于超过 3 万行代码的详细讲解,贯穿 MCP、A2A、ADK、Reasoning LLMs、Reinforcement Learning、Computer Use、LangGraph 等大模型智能体成功落地全链路的 Driver、Engine、Framework、SDKs、Deployment 及应用开发最佳实践,深入剖析从协议设计、源码实现、工程调试到企业级案例落地的每一个关键环节,涵盖 21 大精细模块,从智能体类型选择、分布式协同、上下文管理、状态管理,到前后端源码解析、异步调度以及推理优化和强化学习,逐行解析各模块实现细节。学员将通过实战案例,全面掌握从协议设计到具体代码实现的全栈技术,告别单一 API 调用的浅尝辄止,系统学习讲师在 MCP、A2A、ADK、Reasoning LLMs、Reinforcement Learning、Computer Use、LangGraph 等落地过程中遇到的各类问题及详细解决方案,从架构选型、性能调优、错误排查到细节问题的应对策略,全面揭秘核心内部技术细节,帮助学员和企业在实际项目中避免常见陷阱并提升系统质量和可靠性。通过对电商竞价系统、医疗领域 LLM 适配、自动化 Computer/Browser Use 等多个真实企业级案例的现场演示,学员不仅能学习技术本质和架构内核,更能直观感受各模块如何在大规模场景中协同工作,从而极大提升产品落地效率,实现可控、可靠且规模化的智能体系统建设。通过构建可控、可靠的下一代智能中枢全链路技术,帮助学员从根本上系统掌握大模型智能体的工程化技术,建立全栈开发视野。讲座旨在帮助学员在实际项目中迅速复制可控、可靠、可扩展的 Agentic AI 系统建设路径,从协议设计到源码实现、从算法内核到工程部署,全面提升企业级智能体开发和落地能力,助力企业抢占未来 AI 智能化转型的制高点,推动实现 AI 赋能的业务决策链路战略升级,实现并在市场竞争中取得主动权。
敬请各相关单位积极参加!
联系方式:13817964035(微信同号)
通信工业协会
通信和信息技术创新人才培养工程项目办公室
2025 年 4 月 18 日
《全栈分布式 Agentic AI 实战营:技术内幕、算法源码、企业落地案例实战》线上高级讲座简章
一、讲座时间和方式
时间:2025 年 6 月 6 日至 6 月 8 日(周五、周六、周日共 3 天)
方式:腾讯线上直播
二、研修对象
涉及人工智能及大模型技术产业链各厂商、企业级 AI 解决方案提供商、云计算与大数据平台服务商、分布式计算技术提供商、智能体框架开发商、电信运营商、广电运营商、云厂商、互联网公司、IT 公司、智能交互公司、科研院所与高等院校,央国企各级 IT 主管、部门负责人及 CIO、人工智能技术专家、AI 研发工程师、AI 解决方案工程师、信息系统研发和运维工程师、智能系统研发负责人、分布式系统架构师、强化学习算法专家、智能体通信协议设计师、大模型推理引擎开发者、LLM 企业级应用开发者、Data Scientist、Data Engineer、机器学习工程师、项目经理、产品经理,来自金融、制造、零售、医疗、教育、能源、交通、电商等行业的 AI 负责人,负责企业内部 AI 战略决策、研发、部署及维护的专业技术人员等,包括那些想掌握 Agentic AI 核心技术、并在企业场景落地的开发者、创业者及所有对智能体有深入兴趣或需求的单位和个人。
三、讲座大纲
模块一:解密可控可靠的大模型产品落地技术 A2A + MCP + Reasoning LLMs
模块二:剖析分布式智能体 Tools 及 Data 统一 MCP 协议设计及框架技术
模块三:详解分布式大模型智能体框架 Multi - Agent Framework 内幕解密
模块四:解码企业级分布式 Agentic AI 应用落地十二大关键技术及实现
模块五:从零打造生产级大模型智能体架构设计及前端 1286 行源码详解
模块六:生产级分布式大模型智能体案例后端内幕及 1995 行源码实现详解
模块七:分布式智能体 A2A 协议内核及对 LangGraph 支持源码逐行解析
模块八:智能体 MCP Server 内核设计、通信协议及模块源码逐行解读
模块九:智能体 MCP 实现 Stateful 大模型智能体状态管理及源码实现
模块十:MCP Agent 框架架构设计、七大 Agent 模式及其实现源码详解
模块十一:MCP Agent 框架内核 MCP Client、Server 及 Agent 源码详解
模块十二:MCP Agent 框架 Runtime Executor、Transport 模块源码详解
模块十三:Multi - Agent 开发 ADK Runtime 及 Callback 设计与技术实现
模块十四:ADK 程序状态管理 Context、Sessions、Memory 设计与实现
模块十五:基于 DeepSeek 及 MCP 大型分布式大模型智能体案例实战详解
模块十六:DeepSeek 内核与技术 - 核心架构、优化策略与高效训练全解析
模块十七:推理模型 Test - time Compute 及 DeepSeek - R1 RL 内幕详解
模块十八:DeepSeek 推理模型强化学习 GRPO:原理、算法与源码解析
模块十九:DeepSeek 强化学习算法 GRPO 七大问题、优化思路及源码实现
模块二十:LLM 强化学习下的 Computer Use 及 Browser Use 技术详解
模块二十一:GRPO/PPO/DPO 的医疗领域 LLM 适配及端到端项目源码详解
四、讲座收益
全面掌握大模型智能体架构设计与落地技术:系统了解 LLM Agents、Workflow Agents 和 Reinforcement Learning Agents 的三大类型,掌握 A2A 协议、MCP 标准及 Reasoning LLM 的底层原理,从而构建出适用于电商竞价、自动化系统等场景的成熟产品架构。(模块一、模块二)
深入解析分布式多智能体协同机制:课程详细讲解多种分布式智能体工作模式(如 Coordinator/Dispatcher、并行 Fan - Out/Gather、Hierarchical Task Decomposition 等),帮助学员设计出具备高效任务分解和协同处理能力的系统。(模块一、模块三)
掌握端到端状态管理与上下文整合技术:通过 MCP 协议和多层状态管理机制(包括短期、长期和工作记忆),学员将学会如何管理多轮对话、统一上下文、任务全生命周期,从而确保整个系统在长流程任务中保持稳定与一致。(模块九、模块十四)
实战级前后端源码解析与调试能力培养:课程通过逐行源码解析前端(1286 行)和后端(1995 行)的实现细节,深度讲解消息发送、数据同步、交互调度、调试流程等关键技术,帮助学员快速将理论转化为工程实践。(模块五、模块六)
源代码级拆解 A2A 与 MCP 内核及传输机制:通过对 A2A 协议、MCP Client/Server 和 Runtime Executor 等模块的源码剖析,学员能够深入理解智能体之间如何实现高效通信、Push Notifications、状态转换及多传输机制,提高系统的实时性与可靠性。(模块七、模块八、模块十二)
构建灵活多样的 Agent 设计模式与回调机制:课程详细介绍了 MCP Agent 框架中七大 Agent 模式(AugmentedLLM、Parallel、Router、IntentClassifier、Evaluator - Optimizer、Orchestrator - workers、Swarm)以及 ADK Runtime 内的 Context 管理及 Callbacks 机制,帮助学员根据业务需求构建灵活的智能体协同系统。(模块十、模块十一、模块十三)
提升推理能力与 Test - Time Compute 优化技巧:通过对 DeepSeek 推理模型的详细讲解以及 Test - time Compute 策略(搜索验证、Proposal Distribution 调整等)的深入解析,学员将学会如何在在线推理阶段高效平衡生成质量与计算资源,实现推理优化。(模块十六、模块十七)
掌握前沿的 Reinforcement Learning 强化学习优化与奖励机制:系统讲解 GRPO、PPO、DPO 等 RL 核心算法和源码实现,深入解析 Reward Model 设计、优势估计、动态梯度调整与 Replay 机制,并分享产品落地中的问题和改进方案,帮助学员能在实际项目中实现强化学习的稳定高效调优。(模块十八、模块十九)
扩展应用边界,掌握大模型在 Computer Use 与 Browser Use 中的实战应用:详解 Monte Carlo Tree Search(MCTS)、Self - critique mechanism 和强化学习算法 Direct Preference Optimization(DPO),实现 Browser Agent 智能体的自我纠错能力。通过以 Claude 大模型为例对 Computer Use 和 Browser Use 技术的详细解析,学员不仅会熟悉大模型如何控制虚拟机、自动化执行命令和交互,还能实现跨模态操作和实际办公自动化,拓展 AI 的实际应用场景。(模块二十)
全链路垂直领域项目实战与综合工程实践能力提升:课程通过一个完整的医疗领域 LLM 适配项目,从增量预训练、指令微调、RLHF 到 DPO 全流程源码逐行解析,为学员提供真实场景的落地案例,锻炼其从数据准备、模型训练、系统部署到质量监控的全链路工程实现能力。(模块二十一)
五、讲座内容
模块一:解密可控可靠的大模型产品落地技术 A2A + MCP + Reasoning LLMs
A2A 对多模态 Text/Audio/Video/Forms/iframe 支持设计原理
A2A 中 Client Agent 和 Remote Agent 四大核心交互行为详解
A2A 中 Agent 交互的 Task Management Lifecycle 全生命周期详解
A2A 中关于 User experience negotiation 实现 iframes, video, web forms 技术解析
A2A 中 Authentication and Authorization 运行流程及实现内幕
A2A 中的 stateTransitionHistory 运行机制和实现详解
A2A 中的 Task Management 全生命周期详解
A2A 中 Multi - turn Conversations 多轮对话运行流程及技术实现详解
A2A 中 TaskStatusUpdateEvents 和 TaskArtifactUpdateEvents 解析及技术实现
以具体示例详解 ChatCompletionMessageToolCall 结构内幕
为何 Tool Use 能力是大模型 LLM 进化为智能体最为核心的环节?
Function Calling 对 Agent 框架开发及 MCP 技术的关键意义
大模型 LLM 调用外部工具面临的三大核心问题分析剖析
为何并不是所有的大模型 LLM 都具备 Function Calling 的能力?
如何让不具备 Function Calling 功能的大模型实现 Function Calling 的能力?
模块二:剖析分布式智能体 Tools 及 Data 统一 MCP 协议设计及框架技术
Model Context Protocol(MCP)工作全生命周期流程七大步骤详解
OpenAI、Cursor、Windsurf、LangGraph、Langflow 等对 MCP 的支持详解
MCP 作者为何说 “MCP will be the foundational protocol for agents”?
MCP 三大组件 Hosts、Clients、Servers 及其交互关系详解
使用 MCP 需要 LLM 大模型具备 Function Calling 的能力吗?
详解 OpenAI 对 MCP 的支持
解密 MCP 能够帮助企业实现 “Clear separation of concerns between AI product teams” 的根本驱动力
基于 MCP 编程实战大模型智能体并使用 MCP Inspector 详解
MCP 作者为何说 “An MCP client can be a server and vice - versa”?
MCP 作者为何说 “Models are only as good as the context provided to them”?
MCP 是如何标准化 AI apps & agents 与 tools & data sources 模块之间的交互的?
MCP 中标准化 AI 系统中的 External System:Tools、Prompts、Resources 详解
MCP 中 tool annotations for describing behavior 详解
MCP 中的 long - lived vs short - lived connections 详解
解密 MCP 中 Client 和 Server 之间 Transport 通信机制演变的三大核心阶段
MCP 中 Server 如何借助 Client 中的 LLM 智能强化 Server 的功能?
详解 MCP Elicitation 实现 “proactively request context from users” 原理内幕
生产环境下的 MCP Streamable HTTP 技术内幕及最佳实践
Cursor MCP 案例源码逐行解析
Langflow MCP 案例源码逐行解析
LangGraph MCP 案例源码逐行解析
综合案例:基于 DeepSeek 的 LangGraph MCP 案例实战详解
模块三:详解分布式大模型智能体框架 Multi - Agent Framework 内幕解密
LLM Agent Orchestration 本质和经典模式解密
Multi - Agent frameworks 中关键组件 Profile、Memory、Planning、Percept、Action 详解
为何说 Dynamic Planning 的能力是 Multi - Agent 的基础?
为何说 LLM Agents 不仅仅是 next - token prediction?
使用 Tools 和 Memory 来实现 Augmented LLM
LLM Agents 核心组件 Effectors 内幕详解
LLM Agents 核心组件 Sensors 内幕详解
LLM Agents 核心组件 Environments 内幕详解
LLM Agents 核心组件 Actuators 内幕详解
LLM Agents 核心组件 Sensors 内幕详解
Augmented LLM Agents 与 Environment 交互的 Action Space 详解
Augmented LLM Agents 中的 Planning 原理机制详解
Augmented LLM Agents 中的 Hierarchical Planning 解密
分布式 Agent 中的 Chain - of - Thoughts 详解
分布式 Agent 中的 Subgoal decomposition 详解
分布式 Agent 中的 Reflection 详解
Short - Term Memory 与 model's context window 详解
Short - Term Memory 与 Dynamic Memory Compression 详解
Long - term Memory 与 vector database 详解
Working Memory 与 LLM Context 详解
Procedural Memory 与 System Prompt 详解
Semantic Memory 与 User Information 详解
Episodic Memory 与 LLM Past Actions 详解
LLM Orchestrator 与 Tools 详解
Toolformer 全生命周期详解
MCP Hosts 是简化 Tools 使用的三步骤
Hosts、Clients、Servers 数据交互的全生命周期流程详解
基于 DeepSeek - R1 的 LLM Planning 内幕详解
基于 DeepSeek - R1 的 LLM Reasoning 内幕详解
基于 DeepSeek - R1 的 LLM Reasoning and Acting 内幕详解
基于 DeepSeek - R1 的 LLM Reflecting 内幕详解
基于 DeepSeek 的 LLM Multi - Agent Collaboration 内幕详解
模块五:从零打造生产级大模型智能体架构设计及前端 1286 行源码详解
分布式大模型智能体案例技术架构及现场演示
详解 Coordinator 作为工作流程的入口,负责处理初始交互
详解 Coordinator Prompting 技术及实现
详解 Planner 分析任务并制定执行策略
详解 Planner Prompting 技术设计及实现并路由任务
前端源码 addMessage、updateMessage、sendMessage 逐行解析
前端源码 StreamEvent、fetchStream、parseEvent 逐行解析
前端源码 chatStream 逐行解析
前端源码调试过程详解
模块六:生产级分布式大模型智能体案例后端内幕及 1995 行源码实现详解
基于 FastAPI 和 LangGraph 的后端架构设计及测试
Server 端 ContentItem、ChatMessage、ChatRequest 源码逐行解析
Server 端 chat_endpoint 源码逐行解析
Server 端 create_deepseek_llm、create_openai_llm 源码逐行解析
Server 端不同类型 Agent 实现源码逐行解析
Server 端 Crawler 源码逐行解析
Server 端 JinaClient 源码逐行解析
Server 端 ReadabilityExtractor 源码逐行解析
Server 端 build_graph 源码逐行解析
Server 端 research_node、code_node、browser_node、planner_node、coordinator_node、reporter_node 源码逐行解析
Server 端 State、Router 源码逐行解析
Server 端 run_agent_workflow 源码逐行解析
13
................................
六、特邀专家
王老师:现任美国一家大模型分布式 Agentic AI 公司的 Co-Founder 和 CTO、杰出 AI 工程师、Chief Data Scientist 及首席机器学习工程师,拥有丰富的大语言模型 (LLM) 和智能 Agent 产品落地经验。专注于对话式 AI (Conversational AI)、生成式 AI (Generative AI)、大语言模型 (LLM) 的微调与对齐 (Fine-tuning/Alignment)、LLM 幻觉检测与控制技术,以及 LLM Computer Use 等领域。在硅谷任职期间,王老师曾领导多个企业级大模型与 Agent 产品的架构设计和开发,不仅满足复杂业务需求,还有效最小化 LLM 的幻觉 (Hallucinations) 和偏见 (Biases) 风险,助力企业构建高效可靠的生成式 AI 解决方案。作为一名解决问题的专家,他擅长克服技术、组织或战略层面的障碍,尤其是在紧迫时间节点和高压环境中交付优质解决方案。自 2022 年以来,王老师专注于提供以业务驱动为核心、幻觉最小化的生成式 AI/LLM 解决方案,利用包括 GPT、LLama 2/3、Mistral、Claude 等主流模型,聚焦于持续预训练 (Continual Pretraining)、指令微调 (Instruction Fine-tuning)、小型化微调 (PEFT)、低秩适配 (LoRA)、量化 (Quantization)、强化学习 (RLHF、PPO、DPO、KTO、ORPO、RLAIF) 等技术,以及 Responsible AI、Red Teaming Engineering 和 Agent 应用开发 (Agentic Application)。此外,王老师曾在职业生涯中领导了 11 个大型 NLP 项目,合作企业包括 ByteDance、Apple、PayPal、Chase Bank、Faethm、LinkedIn 、Tencent 和 Pearson 等123。
七、颁发证书
本次培训结束后,将进行专业测评考试,经考核合格,可申请以下两类证书:
A 类证书:由中国通信工业协会通信和信息技术创新人才培养工程颁发《分布式 Agentic AI 智能体》、《AI 智能体应用》、《AI 智能体研发》高级职业技术水平证书,三个专业任选其一,证书可在官方网站查询,同时可作为聘用、任职、定级、晋升的重要参考依据4。
B 类证书:在获得 A 类证书的基础上,颁发一本高级《人工智能应用》、《大模型应用》或《大模型开发》技术证书,三个专业任选其一,证书可在官方网站查询,可作为聘用、任职、定级、晋升的重要参考依据5。
联系方式:13817964035(微信同号)