专场:质效领域Agent实践
聚焦AI Agent在质量保障与效能提升中的创新应用。我们将深入探讨Agent在自动化测试、缺陷识别、代码审查、知识问答、流程协同等质量场景的实战案例,以及在开发、测试交付等效能场景中的落地实践。通过真实业务应用分享,展示智能Agent如何驱动质效双提升,助力企业实现研发智能化转型。
专场出品人:王胜 
百度 质量效能研发部 资深工程师
先后就职与腾讯和百度,专注质效工具的研发,在大数据领域,智能测试领域,白盒领域(代码理解,问题召回等)有较为丰富的工作经验。
齐佩之
华为 GTS业务体验领域测试专家
华为技术有限公司 GTS业务体验领域测试专家(首席),长期在测试技术和测试工程能力领域深耕,构建Web UI自动化测试框架,先后实现Web低码和无码自动化写作、LLM辅助自主探索测试、基于意图的自主测试Agent,在公司多个领域广泛使用。
待定
待定
基于模型的自主遍历测试Agent
Web类产品,界面变更快,页面功能组合多,传统基于xpath的UI界面自动化写作成本高且维护工作量大,传统基于算法的web界面探索测试没有测试意图,测试覆盖范围无法准确评估,如何让自主遍历和人的测试设计结合直接到测试执行实现跨越?

内容大纲
整体方案:
基于模型的自主测试能力,用户输入测试意图,Agent基于页面感知自动规划执行任务,基于执行任务自动输出具体的操作指令,自主进行页面的操作执行。

关键技术:
1. 构建Web操作指令集:一套支持浏览器操作相关的指令集,可操作页面各种元素,具备结构简单,执行稳定,可读性强的特点;
2. 基于意图的任务生成:用户输入意图,基于意图创建执行任务和步骤,实现任务规划;
3. 基于任务的步骤执行:基于任务步骤规划调用原子能力,进行步骤执行,每个任务执行可遍历所有步骤的数据组合,实现基于任务的自主遍历测试执行;
4. 基于预期结果和故障模式库的问题检测:根据意图结果和40+种故障模式库进行Web界面问题检测。

听众收益
Web界面测试自动化还需要写具体的用例吗,还需要写自动化脚本吗,或许可以尝试改变了。
陈军
美团 技术专家
美团质效技术部技术专家,目前主要负责美团质效工具建设,对数据构造、精准测试方向有一定的落地实践,AI在质效领域的工程化应用方向上(智能体设计、知识图谱构建)也做了相关的研究与探索。16年加入美团,从事测试开发方向工作。
待定
待定
代码AI Agent在变更影响分析领域的探索与实践
传统测试范围评估的挑战:
1. 高度依赖人工经验(效率低、知识断层、专家资源瓶颈)
2. 复杂依赖难识别(跨服务接口、隐式配置依赖)
3. 测试覆盖盲区(用例设计不完善、多环境差异)
4. 过程资产难沉淀(缺乏可复用知识库)

AI时代的新风险:
1. AI生成代码的不可预知性(逻辑偏差、隐式依赖)
2. AI修改代码的回归测试危机(非目标模块被修改、新逻辑分支缺乏覆盖)
3. 研发评估准确度降低(代码风格多变,传统方式失效)

解决方向:
通过构建代码知识图谱和AI智能体,实现变更影响的自动化分析,结合工程编码与AI泛化能力,提升测试范围评估的精准性。


内容大纲
1. 背景与挑战
    1.1 线上问题分布数据(大量问题均由变更影响评估不到位导致)
    1.2 传统评估痛点 vs AI时代新风险
2. 代码知识图谱构建
    2.1 目标:精准代码关系 + 高效查询能力
    2.2 关键技术:代码解析、业务特征工程、图数据库优化
    2.3 业务知识挖掘:AI辅助特征清洗/总结/校验
3. 智能体构建与交互
    3.1 架构分层:数据层(MySQL/ES/Graph)、基础设施层(AST/链路算法)、应用层(意图识别/流程规划)
    3.2 核心能力:意图识别、多轮对话管理、动态工具编排
    3.3 交互流程:用户输入→意图识别→工具执行→结果聚合
4. 
阶段成果与演进方向
    4.1 拦截缺陷分布;
    4.2 未来优化:知识处理增强、多语言支持、需求-代码追踪矩阵

听众收益
1. 直接成效:
    1.1 降低测试逃逸率:通过精准影响范围分析,拦截变更相关问题(如配置遗漏、兼容性风险)
    1.2 提升效率:AI智能体实时生成测试建议,减少人工评估时间
2. 可复用的技术经验:
    2.1 业务特征工程:AI辅助打标业务属性(如接口含义、风险特征),增强图谱实用性
    2.2 智能体设计:分层Prompt管理、规则引擎消解模糊意图、动态工具编排(DAG优化)
    2.3 知识沉淀:将分析结论转化为数字资产,解决知识传承难题
3. 量化数据参考:
    3.1 拦截问题分布
    3.2 关键指标:意图识别准确率、召回率周级监控机制
4. 风险防控实践:
    4.1 覆盖AI生成代码的隐式依赖检测,解决“回归测试危机”
    4.2 通过图谱追踪数据流完整性,预防跨服务链路异常
邵楠
中兴通讯 高级系统工程师
专注于云原生网络转型与AI驱动的智能运维体系建设。主导完成运维中心智能化改造,通过AI智能体实现故障预测准确率提升,自动化处置率超85%;构建AIOps平台,将部署效率提升60%,并落地沃达丰跨国云化验证。拥有多项云原生与AI融合专利,输出多份AI提效最佳实践,推动团队研发流程智能化升级。专长领域:云原生、AI工程化、智能运维中台、LLM应用落地及高可用架构设计。
待定
待定
伴随式AI代码评审最佳实践—基于IDE插件+AI的即写即检质量守护
代码评审是保证代码质量的重要环节,传统评审活动治理周期长、AI评审不准确、项目规范难落实,严重拖累效率质量。
本实践所述的技术方案正解决上述问题,提出了一种基于前后端分离的伴随式AI代码评审系统及方法。将评审插件和规则分离实现规则热更新,通过伴随式代码评审智能体实现评审状态左移,让开发人员在编码过程中就能一时间确认结果,缩短反馈周期,提升效率与质量。

内容大纲
本实践所述的技术方案重塑代码评审流程,引入伴随式自动代码评审,实现“即写即检查”。主要实践点如下:
1.架构创新:采用"前端上下文感知+后端规则服务化"的分离架构,前端通过AST解析器(支持20+编程语言)标准化代码特征提取,后端构建弹性规则服务,实现规则与IDE环境的解耦升级
2.伴随式评审智能体:与编码环境深度结合,实时监测代码质量,快速反馈潜在问题,大幅减少修改验证的周期
3.原子化规则评审服务:智能规则引擎预筛待检项,AI语义分析+静态检查双轨复核,实现缺陷行级精确定位,支持项目级/领域级/团队级自定义检查规则,通过静态+AI混合规则(如"当检测到内存释放接口,触发AI模型进行指针解引用分析")
4.知识进化机制:基于项目代码构建代码图谱,补全评审上下文。结合用户反馈持续形成轨迹数据,形成数据飞轮持续优化AI应用,提升代码评审准确率
从而实现“即写即检查”。开发人员在编码阶段可第一时间确认结果,缩短反馈周期,提升效率与质量。

听众收益
本演讲为听众带来三大核心价值:
1. 可直接落地的技术方案,提供前后端分离的IDE插件架构和规则热更新机制,支持快速部署;
2. 创新性的"静态分析+AI语义"双轨评审模式,显著降低误报率40%以上,评审准确率达95%+;
3. 经过验证的效能提升路径,实现评审效率10倍提升和缺陷修复成本降低60%;
听众可借鉴我们的代码图谱构建方法和数据飞轮机制,避免AI模型训练和规则迭代中的常见陷阱,快速构建自己的智能评审体系。
唐辉
百度 资深工程师
百度 工程效能部资深工程师,目前主要负责百度内的大模型产品 Comate AI IDE。在百度内先后建设过40+产品,在前端组件库、工程化、性能优化、体验优化等多个方向均有深入实践。在团队内部,长期参与提效工具研发,提升团队交付效率。
待定
待定
多模态模型驱动前端研发变革
当前前端研发面临设计稿转代码效率低、多端适配成本高、UI逻辑一致性维护难三大痛点。设计师与开发者的协作依赖人工标注与重复实现,响应式布局、主题切换等需求加剧了代码冗余。传统低代码平台灵活性不足,难以覆盖复杂业务逻辑。多模态大模型的出现,为“视觉设计稿→可运行代码”的端到端智能生成提供了新路径。
设计稿生成代码配合自然语言生成代码,使得设计转代码的应用场景更为广泛,不仅能生成,还能修改。配合大模型的其他能力,如MCP、Rules,能生成较高质量的代码。

内容大纲
1. 前端的哪些场景适合大模型介入
2. 从设计到代码
    2.1 关键技术:多模态模型的“看懂设计”能力
    2.2 设计稿解析:从像素到语义(布局树生成、组件意图识别)
    2.3 工具链:Figma/Sketch插件 + 自定义解析引擎
3. 自然语言+可视化到代码
    3.1 精准识别出元素
    3.2 配合Rules、自定义指令、MCP生成高质量的代码
4. 代码调试与问题定位
5. 落地收益
6. 后续展望

听众收益
将大模型用于原型设计、界面开发,提升研发效率。
敬请期待
......
.....
待定
待定
敬请期待
....
关注QECon公众号
议题投稿
lijie@qecon.net
商务合作
151-2264-3988  木子
票务联系
135-2067-8913  郭梦媛
媒体合作
135-1619-6409  皮皮
添加QECon小助手,获取
会议最新资讯
购票咨询
13520678913  郭梦媛
服务总线
400-183-9980