欢迎访问SoHoBlink人工智能行业网站,合作电话:13817964035。
首页 > AI知识 > 关于举办全栈分布式 Agentic AI 实战营:技术内幕、算法源码、企业落地案例实战高级讲座的通知
关于举办全栈分布式 Agentic AI 实战营:技术内幕、算法源码、企业落地案例实战高级讲座的通知
kiki  2025-04-23 08:55:38  浏览:288

各有关单位:
随着大模型技术进入产业落地阶段,分布式多智能体(Multi - agent)已成为连接巨型模型与企业复杂场景、支撑智能决策的核心枢纽。在新一代智能体开发领域,MCP、A2A、ADK、Reasoning LLMs、Reinforcement Learning、Computer Use 和 Langraph 等正以颠覆性的方式重塑整个大模型智能体产品的落地方法。作为新一代 Agentic AI 产品落地的关键,这一技术体系已在业界引发深远变革,并将永久性地革新企业级智能体系统的构建与运作模式。

这种技术需求的代际跃迁,迫使企业必须从 “系统集成” 思维转向 “数字生命体” 构建。智能体技术不再只是效率工具,而是正在成为连接物理世界与数字世界的神经中枢,企业需要建立全新的技术认知框架与组织能力模型,以应对这场由技术范式迁移引发的商业逻辑重构。根据麦肯锡最新调研,全球 63% 的头部企业已将智能体技术纳入数字化转型核心战略,但技术落地成功率不足 15%。核心问题在于大模型本身行为的不可控性及智能体系统本身 Knowledge Gap 等导致了 Agentic AI 的不可靠性。

为帮助广大企事业单位成功落地分布式大模型智能体技术,构建可控、可靠、可规模化的 Agentic AI 系统,CIIT 项目办公室联合北京智益方信息科技有限公司、北京智联新一代信息技术有限公司,将于 2025 年 6 月 6 日至 6 月 8 日举办线上 “全栈分布式 Agentic AI 实战营:技术内幕、算法源码、企业落地案例实战” 高级讲座。讲座由曾领导多个企业级大模型与 Agent 产品的架构设计和开发的人工智能专家亲自授课。课程基于超过 3 万行代码的详细讲解,贯穿 MCP、A2A、ADK、Reasoning LLMs、Reinforcement Learning、Computer Use、LangGraph 等大模型智能体成功落地全链路的 Driver、Engine、Framework、SDKs、Deployment 及应用开发最佳实践,深入剖析从协议设计、源码实现、工程调试到企业级案例落地的每一个关键环节,涵盖 21 大精细模块,从智能体类型选择、分布式协同、上下文管理、状态管理,到前后端源码解析、异步调度以及推理优化和强化学习,逐行解析各模块实现细节。学员将通过实战案例,全面掌握从协议设计到具体代码实现的全栈技术,告别单一 API 调用的浅尝辄止,系统学习讲师在 MCP、A2A、ADK、Reasoning LLMs、Reinforcement Learning、Computer Use、LangGraph 等落地过程中遇到的各类问题及详细解决方案,从架构选型、性能调优、错误排查到细节问题的应对策略,全面揭秘核心内部技术细节,帮助学员和企业在实际项目中避免常见陷阱并提升系统质量和可靠性。通过对电商竞价系统、医疗领域 LLM 适配、自动化 Computer/Browser Use 等多个真实企业级案例的现场演示,学员不仅能学习技术本质和架构内核,更能直观感受各模块如何在大规模场景中协同工作,从而极大提升产品落地效率,实现可控、可靠且规模化的智能体系统建设。通过构建可控、可靠的下一代智能中枢全链路技术,帮助学员从根本上系统掌握大模型智能体的工程化技术,建立全栈开发视野。讲座旨在帮助学员在实际项目中迅速复制可控、可靠、可扩展的 Agentic AI 系统建设路径,从协议设计到源码实现、从算法内核到工程部署,全面提升企业级智能体开发和落地能力,助力企业抢占未来 AI 智能化转型的制高点,推动实现 AI 赋能的业务决策链路战略升级,实现并在市场竞争中取得主动权。


敬请各相关单位积极参加!

联系方式:13817964035(微信同号)


通信工业协会
通信和信息技术创新人才培养工程项目办公室
2025 年 4 月 18 日

《全栈分布式 Agentic AI 实战营:技术内幕、算法源码、企业落地案例实战》线上高级讲座简章

一、讲座时间和方式

  1. 时间:2025 年 6 月 6 日至 6 月 8 日(周五、周六、周日共 3 天)

  2. 方式:腾讯线上直播

二、研修对象

涉及人工智能及大模型技术产业链各厂商、企业级 AI 解决方案提供商、云计算与大数据平台服务商、分布式计算技术提供商、智能体框架开发商、电信运营商、广电运营商、云厂商、互联网公司、IT 公司、智能交互公司、科研院所与高等院校,央国企各级 IT 主管、部门负责人及 CIO、人工智能技术专家、AI 研发工程师、AI 解决方案工程师、信息系统研发和运维工程师、智能系统研发负责人、分布式系统架构师、强化学习算法专家、智能体通信协议设计师、大模型推理引擎开发者、LLM 企业级应用开发者、Data Scientist、Data Engineer、机器学习工程师、项目经理、产品经理,来自金融、制造、零售、医疗、教育、能源、交通、电商等行业的 AI 负责人,负责企业内部 AI 战略决策、研发、部署及维护的专业技术人员等,包括那些想掌握 Agentic AI 核心技术、并在企业场景落地的开发者、创业者及所有对智能体有深入兴趣或需求的单位和个人。

三、讲座大纲

  1. 模块一:解密可控可靠的大模型产品落地技术 A2A + MCP + Reasoning LLMs

  2. 模块二:剖析分布式智能体 Tools 及 Data 统一 MCP 协议设计及框架技术

  3. 模块三:详解分布式大模型智能体框架 Multi - Agent Framework 内幕解密

  4. 模块四:解码企业级分布式 Agentic AI 应用落地十二大关键技术及实现

  5. 模块五:从零打造生产级大模型智能体架构设计及前端 1286 行源码详解

  6. 模块六:生产级分布式大模型智能体案例后端内幕及 1995 行源码实现详解

  7. 模块七:分布式智能体 A2A 协议内核及对 LangGraph 支持源码逐行解析

  8. 模块八:智能体 MCP Server 内核设计、通信协议及模块源码逐行解读

  9. 模块九:智能体 MCP 实现 Stateful 大模型智能体状态管理及源码实现

  10. 模块十:MCP Agent 框架架构设计、七大 Agent 模式及其实现源码详解

  11. 模块十一:MCP Agent 框架内核 MCP Client、Server 及 Agent 源码详解

  12. 模块十二:MCP Agent 框架 Runtime Executor、Transport 模块源码详解

  13. 模块十三:Multi - Agent 开发 ADK Runtime 及 Callback 设计与技术实现

  14. 模块十四:ADK 程序状态管理 Context、Sessions、Memory 设计与实现

  15. 模块十五:基于 DeepSeek 及 MCP 大型分布式大模型智能体案例实战详解

  16. 模块十六:DeepSeek 内核与技术 - 核心架构、优化策略与高效训练全解析

  17. 模块十七:推理模型 Test - time Compute 及 DeepSeek - R1 RL 内幕详解

  18. 模块十八:DeepSeek 推理模型强化学习 GRPO:原理、算法与源码解析

  19. 模块十九:DeepSeek 强化学习算法 GRPO 七大问题、优化思路及源码实现

  20. 模块二十:LLM 强化学习下的 Computer Use 及 Browser Use 技术详解

  21. 模块二十一:GRPO/PPO/DPO 的医疗领域 LLM 适配及端到端项目源码详解

四、讲座收益

  1. 全面掌握大模型智能体架构设计与落地技术:系统了解 LLM Agents、Workflow Agents 和 Reinforcement Learning Agents 的三大类型,掌握 A2A 协议、MCP 标准及 Reasoning LLM 的底层原理,从而构建出适用于电商竞价、自动化系统等场景的成熟产品架构。(模块一、模块二)

  2. 深入解析分布式多智能体协同机制:课程详细讲解多种分布式智能体工作模式(如 Coordinator/Dispatcher、并行 Fan - Out/Gather、Hierarchical Task Decomposition 等),帮助学员设计出具备高效任务分解和协同处理能力的系统。(模块一、模块三)

  3. 掌握端到端状态管理与上下文整合技术:通过 MCP 协议和多层状态管理机制(包括短期、长期和工作记忆),学员将学会如何管理多轮对话、统一上下文、任务全生命周期,从而确保整个系统在长流程任务中保持稳定与一致。(模块九、模块十四)

  4. 实战级前后端源码解析与调试能力培养:课程通过逐行源码解析前端(1286 行)和后端(1995 行)的实现细节,深度讲解消息发送、数据同步、交互调度、调试流程等关键技术,帮助学员快速将理论转化为工程实践。(模块五、模块六)

  5. 源代码级拆解 A2A 与 MCP 内核及传输机制:通过对 A2A 协议、MCP Client/Server 和 Runtime Executor 等模块的源码剖析,学员能够深入理解智能体之间如何实现高效通信、Push Notifications、状态转换及多传输机制,提高系统的实时性与可靠性。(模块七、模块八、模块十二)

  6. 构建灵活多样的 Agent 设计模式与回调机制:课程详细介绍了 MCP Agent 框架中七大 Agent 模式(AugmentedLLM、Parallel、Router、IntentClassifier、Evaluator - Optimizer、Orchestrator - workers、Swarm)以及 ADK Runtime 内的 Context 管理及 Callbacks 机制,帮助学员根据业务需求构建灵活的智能体协同系统。(模块十、模块十一、模块十三)

  7. 提升推理能力与 Test - Time Compute 优化技巧:通过对 DeepSeek 推理模型的详细讲解以及 Test - time Compute 策略(搜索验证、Proposal Distribution 调整等)的深入解析,学员将学会如何在在线推理阶段高效平衡生成质量与计算资源,实现推理优化。(模块十六、模块十七)

  8. 掌握前沿的 Reinforcement Learning 强化学习优化与奖励机制:系统讲解 GRPO、PPO、DPO 等 RL 核心算法和源码实现,深入解析 Reward Model 设计、优势估计、动态梯度调整与 Replay 机制,并分享产品落地中的问题和改进方案,帮助学员能在实际项目中实现强化学习的稳定高效调优。(模块十八、模块十九)

  9. 扩展应用边界,掌握大模型在 Computer Use 与 Browser Use 中的实战应用:详解 Monte Carlo Tree Search(MCTS)、Self - critique mechanism 和强化学习算法 Direct Preference Optimization(DPO),实现 Browser Agent 智能体的自我纠错能力。通过以 Claude 大模型为例对 Computer Use 和 Browser Use 技术的详细解析,学员不仅会熟悉大模型如何控制虚拟机、自动化执行命令和交互,还能实现跨模态操作和实际办公自动化,拓展 AI 的实际应用场景。(模块二十)

  10. 全链路垂直领域项目实战与综合工程实践能力提升:课程通过一个完整的医疗领域 LLM 适配项目,从增量预训练、指令微调、RLHF 到 DPO 全流程源码逐行解析,为学员提供真实场景的落地案例,锻炼其从数据准备、模型训练、系统部署到质量监控的全链路工程实现能力。(模块二十一)

五、讲座内容

模块一:解密可控可靠的大模型产品落地技术 A2A + MCP + Reasoning LLMs

  1. A2A 对多模态 Text/Audio/Video/Forms/iframe 支持设计原理

  2. A2A 中 Client Agent 和 Remote Agent 四大核心交互行为详解

  3. A2A 中 Agent 交互的 Task Management Lifecycle 全生命周期详解

  4. A2A 中关于 User experience negotiation 实现 iframes, video, web forms 技术解析

  5. A2A 中 Authentication and Authorization 运行流程及实现内幕

  6. A2A 中的 stateTransitionHistory 运行机制和实现详解

  7. A2A 中的 Task Management 全生命周期详解

  8. A2A 中 Multi - turn Conversations 多轮对话运行流程及技术实现详解

  9. A2A 中 TaskStatusUpdateEvents 和 TaskArtifactUpdateEvents 解析及技术实现

  10. 以具体示例详解 ChatCompletionMessageToolCall 结构内幕

  11. 为何 Tool Use 能力是大模型 LLM 进化为智能体最为核心的环节?

  12. Function Calling 对 Agent 框架开发及 MCP 技术的关键意义

  13. 大模型 LLM 调用外部工具面临的三大核心问题分析剖析

  14. 为何并不是所有的大模型 LLM 都具备 Function Calling 的能力?

  15. 如何让不具备 Function Calling 功能的大模型实现 Function Calling 的能力?

模块二:剖析分布式智能体 Tools 及 Data 统一 MCP 协议设计及框架技术

  1. Model Context Protocol(MCP)工作全生命周期流程七大步骤详解

  2. OpenAI、Cursor、Windsurf、LangGraph、Langflow 等对 MCP 的支持详解

  3. MCP 作者为何说 “MCP will be the foundational protocol for agents”?

  4. MCP 三大组件 Hosts、Clients、Servers 及其交互关系详解

  5. 使用 MCP 需要 LLM 大模型具备 Function Calling 的能力吗?

  6. 详解 OpenAI 对 MCP 的支持

  7. 解密 MCP 能够帮助企业实现 “Clear separation of concerns between AI product teams” 的根本驱动力

  8. 基于 MCP 编程实战大模型智能体并使用 MCP Inspector 详解

  9. MCP 作者为何说 “An MCP client can be a server and vice - versa”?

  10. MCP 作者为何说 “Models are only as good as the context provided to them”?

  11. MCP 是如何标准化 AI apps & agents 与 tools & data sources 模块之间的交互的?

  12. MCP 中标准化 AI 系统中的 External System:Tools、Prompts、Resources 详解

  13. MCP 中 tool annotations for describing behavior 详解

  14. MCP 中的 long - lived vs short - lived connections 详解

  15. 解密 MCP 中 Client 和 Server 之间 Transport 通信机制演变的三大核心阶段

  16. MCP 中 Server 如何借助 Client 中的 LLM 智能强化 Server 的功能?

  17. 详解 MCP Elicitation 实现 “proactively request context from users” 原理内幕

  18. 生产环境下的 MCP Streamable HTTP 技术内幕及最佳实践

  19. Cursor MCP 案例源码逐行解析

  20. Langflow MCP 案例源码逐行解析

  21. LangGraph MCP 案例源码逐行解析

  22. 综合案例:基于 DeepSeek 的 LangGraph MCP 案例实战详解

模块三:详解分布式大模型智能体框架 Multi - Agent Framework 内幕解密

  1. LLM Agent Orchestration 本质和经典模式解密

  2. Multi - Agent frameworks 中关键组件 Profile、Memory、Planning、Percept、Action 详解

  3. 为何说 Dynamic Planning 的能力是 Multi - Agent 的基础?

  4. 为何说 LLM Agents 不仅仅是 next - token prediction?

  5. 使用 Tools 和 Memory 来实现 Augmented LLM

  6. LLM Agents 核心组件 Effectors 内幕详解

  7. LLM Agents 核心组件 Sensors 内幕详解

  8. LLM Agents 核心组件 Environments 内幕详解

  9. LLM Agents 核心组件 Actuators 内幕详解

  10. LLM Agents 核心组件 Sensors 内幕详解

  11. Augmented LLM Agents 与 Environment 交互的 Action Space 详解

  12. Augmented LLM Agents 中的 Planning 原理机制详解

  13. Augmented LLM Agents 中的 Hierarchical Planning 解密

  14. 分布式 Agent 中的 Chain - of - Thoughts 详解

  15. 分布式 Agent 中的 Subgoal decomposition 详解

  16. 分布式 Agent 中的 Reflection 详解

  17. Short - Term Memory 与 model's context window 详解

  18. Short - Term Memory 与 Dynamic Memory Compression 详解

  19. Long - term Memory 与 vector database 详解

  20. Working Memory 与 LLM Context 详解

  21. Procedural Memory 与 System Prompt 详解

  22. Semantic Memory 与 User Information 详解

  23. Episodic Memory 与 LLM Past Actions 详解

  24. LLM Orchestrator 与 Tools 详解

  25. Toolformer 全生命周期详解

  26. MCP Hosts 是简化 Tools 使用的三步骤

  27. Hosts、Clients、Servers 数据交互的全生命周期流程详解

  28. 基于 DeepSeek - R1 的 LLM Planning 内幕详解

  29. 基于 DeepSeek - R1 的 LLM Reasoning 内幕详解

  30. 基于 DeepSeek - R1 的 LLM Reasoning and Acting 内幕详解

  31. 基于 DeepSeek - R1 的 LLM Reflecting 内幕详解

  32. 基于 DeepSeek 的 LLM Multi - Agent Collaboration 内幕详解

模块五:从零打造生产级大模型智能体架构设计及前端 1286 行源码详解

  1. 分布式大模型智能体案例技术架构及现场演示

  2. 详解 Coordinator 作为工作流程的入口,负责处理初始交互

  3. 详解 Coordinator Prompting 技术及实现

  4. 详解 Planner 分析任务并制定执行策略

  5. 详解 Planner Prompting 技术设计及实现并路由任务

  6. 前端源码 addMessage、updateMessage、sendMessage 逐行解析

  7. 前端源码 StreamEvent、fetchStream、parseEvent 逐行解析

  8. 前端源码 chatStream 逐行解析

  9. 前端源码调试过程详解

模块六:生产级分布式大模型智能体案例后端内幕及 1995 行源码实现详解

  1. 基于 FastAPI 和 LangGraph 的后端架构设计及测试

  2. Server 端 ContentItem、ChatMessage、ChatRequest 源码逐行解析

  3. Server 端 chat_endpoint 源码逐行解析

  4. Server 端 create_deepseek_llm、create_openai_llm 源码逐行解析

  5. Server 端不同类型 Agent 实现源码逐行解析

  6. Server 端 Crawler 源码逐行解析

  7. Server 端 JinaClient 源码逐行解析

  8. Server 端 ReadabilityExtractor 源码逐行解析

  9. Server 端 build_graph 源码逐行解析

  10. Server 端 research_node、code_node、browser_node、planner_node、coordinator_node、reporter_node 源码逐行解析

  11. Server 端 State、Router 源码逐行解析

  12. Server 端 run_agent_workflow 源码逐行解析
    13


................................

六、特邀专家 王老师:现任美国一家大模型分布式 Agentic AI 公司的 Co-Founder 和 CTO、杰出 AI 工程师、Chief Data Scientist 及首席机器学习工程师,拥有丰富的大语言模型 (LLM) 和智能 Agent 产品落地经验。专注于对话式 AI (Conversational AI)、生成式 AI (Generative AI)、大语言模型 (LLM) 的微调与对齐 (Fine-tuning/Alignment)、LLM 幻觉检测与控制技术,以及 LLM Computer Use 等领域。在硅谷任职期间,王老师曾领导多个企业级大模型与 Agent 产品的架构设计和开发,不仅满足复杂业务需求,还有效最小化 LLM 的幻觉 (Hallucinations) 和偏见 (Biases) 风险,助力企业构建高效可靠的生成式 AI 解决方案。作为一名解决问题的专家,他擅长克服技术、组织或战略层面的障碍,尤其是在紧迫时间节点和高压环境中交付优质解决方案。自 2022 年以来,王老师专注于提供以业务驱动为核心、幻觉最小化的生成式 AI/LLM 解决方案,利用包括 GPT、LLama 2/3、Mistral、Claude 等主流模型,聚焦于持续预训练 (Continual Pretraining)、指令微调 (Instruction Fine-tuning)、小型化微调 (PEFT)、低秩适配 (LoRA)、量化 (Quantization)、强化学习 (RLHF、PPO、DPO、KTO、ORPO、RLAIF) 等技术,以及 Responsible AI、Red Teaming Engineering 和 Agent 应用开发 (Agentic Application)。此外,王老师曾在职业生涯中领导了 11 个大型 NLP 项目,合作企业包括 ByteDance、Apple、PayPal、Chase Bank、Faethm、LinkedIn 、Tencent 和 Pearson 等123。

七、颁发证书 本次培训结束后,将进行专业测评考试,经考核合格,可申请以下两类证书: A 类证书:由中国通信工业协会通信和信息技术创新人才培养工程颁发《分布式 Agentic AI 智能体》、《AI 智能体应用》、《AI 智能体研发》高级职业技术水平证书,三个专业任选其一,证书可在官方网站查询,同时可作为聘用、任职、定级、晋升的重要参考依据4。 B 类证书:在获得 A 类证书的基础上,颁发一本高级《人工智能应用》、《大模型应用》或《大模型开发》技术证书,三个专业任选其一,证书可在官方网站查询,可作为聘用、任职、定级、晋升的重要参考依据5。


联系方式:13817964035(微信同号)


SoHoBlink - 人工智能行业网站

60万+泛人工智能行业企业数据,每年1000+行业会议宣传,领氪网络SoHoBlink人工智能行业网站,是一个泛人工智能行业新媒体门户网站,同时也是一个行业图谱和供应商名录,用户可在网站上通过分类栏目或者关键词搜索,找到需要的供应商,企业也可主动申请加入网站,推广自己的企业品牌,获得更多合作机会。
热门分类:
名人创业故事:

关于SoHoBlink人工智能网


60万+泛人工智能行业企业数据,每年1000+行业会议宣传,领氪网络SoHoBlink人工智能行业网站,是一个泛人工智能行业新媒体门户网站,同时也是一个行业图谱和供应商名录,用户可在网站上通过分类栏目或者关键词搜索,找到需要的供应商,企业也可主动申请加入网站,推广自己的企业品牌,获得更多合作机会。
联系方式:13817964035(微信同号)合作邮箱:171920374@qq.com
地址1:中国上海市徐汇区南丹东路106号
地址2:铜仁市思南县思唐街道城北社区城门组53号

微信公众号

扫码关注
©2016 思南领氪网络工作室 黔ICP备2022009150号-1