专场:智能化测试技术实践
随着业务系统日益复杂和迭代速度不断加快,传统测试方法面临效率低下和覆盖不足的挑战。与此同时,智能化测试技术通过融合人工智能、机器学习和自动化工具,正在重塑软件质量保障体系。从智能测试用例生成、自愈性自动化脚本到基于日志分析的缺陷预测,AI技术显著提升了测试的精准度和执行效率。领先性企业已将这些技术成功应用于DevOps流水线、微服务测试和复杂业务场景验证,取得了不少优秀实践成果。本专题将和大家一起探讨智能化测试的核心技术框架,分享行业最先进的落地案例,并探讨如何平衡技术投入与产出效益,帮助团队构建更高效、自适应且可扩展的下一代测试体系。
专场出品人:齐彦松 
字节跳动 用户增长测试团队负责人
历年负责过搜索、中台等业务测试和团队管理工作,拥有十余年的质量领域从业经验。现就职于字节跳动,任用户增长测试团队负责人,同时带领团队孵化多个行业领先的智能化测试技术,完成规模化推广落地。
宣辛欣
美团 技术专家
2016年加入美团,负责过多个业务系统的质量保障工作,从0到1建设了全新的代码覆盖率系统,持续关注研究和实践测试领域的智能化技术。
待定
待定
AI驱动的缺陷检测智能体能力构建
代码缺陷会严重影响我们产品的交付质量,因此需要尽可能的在交付给用户之前拦截发现这些问题,目前发现这种问题是通过测试设计和执行发现(需要较高的时间成本),另外可以通过传统的缺陷扫描工具(sonar)来发现,AI时代下,大模型对代码的逻辑理解能力有显著优势,因此可以利用大模型在项目早期的阶段对变更代码进行缺陷检测,这会大幅降低我们的缺陷发现成本,在测试执行之前就可以前置发现规避问题,但是也会有相应的挑战,如何设计整个检测的流程和策略,如何获取用户的反馈,检测的准确性相关的问题如何治理,以及在上下文上如何做功提升检测的准确和召回等。

内容大纲
技术上要搞定的问题:
1. 缺陷检测工作流的设计思路,通过整体的设计和调优提升准确率
2. 代码上下文的获取,裁剪和组装
3. 代码特征的分类,使用不同的检测策略,提示词的改写
4. 代码运行时的信息加入到检测上下文
5. 通过建设知识库进一步提升复杂规则的检测能力
6. 通过缺陷数据建设和评测建设不断推进系统能力提升

1. 缺陷检测的背景
    1.1 为什么做这个事情
    1.2 sonar和LLM
    1.3 缺陷检测产品的形态
2. 缺陷检测智能体
    2.1 缺陷检测智能体的整体框架
    2.2 规划能力-意图感知,任务分析,任务拆解
    2.3 记忆能力
    2.4 反思能力-验证和总结
    2.5 缺陷检测的上下文
    2.6 知识库建设
3. 缺陷数据与评测
    3.1 缺陷数据库的建设
    3.2 缺陷数据的分析定位,类别打标
    3.3 缺陷数据的标注
    3.4 评测能力搭建
    3.5 缺陷检测在实际业务中的效果,采纳率
4. 总结和展望
 
听众收益
1. 了解缺陷检测产品建设的整体思路和背后的思考
2. 缺陷检测智能体的工作流设计
3. 具体的实施过程中的技术问题,缺陷检测的效果评测方法
龚李迪
bilibili 资深测试开发工程师
哔哩哔哩 质量保障中心 资深测试开发工程师,目前主要负责C端流量业务,推进业务稳定迭代、持续交付、质量提效等质量保障体系的建设。5年互联网从业经验,有丰富的业务质量保障、稳定性治理、自动化测试工具开发经历。
待定
待定
AI驱动的测试用例生成平台建设实践
行业中软件迭代的周期在不断缩短,需求业务的功能性、多样性、历史背景等内容越发复杂,在覆盖更多业务维度功能和对测试高质高效要求之间的矛盾也越发显著。
如今业界AI大模型的技术逐渐走向成熟、准确率不断提高,其在语言理解、逻辑推理、多模态处理等方面的能力已得到广泛应用,使用门槛也不断降低。因此将AI能力引入测试流程,赋能测试工作的智能化与自动化,已是势在必行。

内容大纲
1. 项目背景
    1.1 传统编写测试用例问题和痛点
    1.2 AI技术的发展趋势和软件测试的应用场景
2. 自动化测试用例生成平台
    2.1 平台的整体架构设计、设计思路、测试用例自动化生成流程
    2.2 工程中的Multi-Agent协作协同工作机制,prompt与知识库协同规范与收益
    2.3 RAG知识库建设中的AI驱动多路混合检索策略与收益
    2.4 工程优化中多任务并发、多模型协同、缓存复用带来的效率提升
    2.5 工程在多模态融合、UI自动化代码智能生成等未来技术升级路径上的探索
3. 实践效果
    3.1 工程实践与运维保障:报告产出、监控告警、用例管理等工程化实践
    3.2 落地收益量化分析:用例生成效果、工程效率等关键指标对比
4. 总结与展望
    4.1 总结项目整体实践与未来展望
 
听众收益
了解AI赋能测试用例生成的完整生产过程,以及在落地过程中遇到的成本、效率、技术难点等问题,通过分享可以在原有的工程能力中进行优化迭代,实现端到端的自动化生产流程,提升整体的工程效率。

郑天
字节跳动 资深测试开发架构师
字节跳动 用户增长团队资深测试开发架构师。目前负责智能测试技术探索、测试效能的提升、工具的设计与落地。主导探索实践了包括测试用例生成、接口自动化用例生成、智能保障分级、需求风险智能识别等大模型测试应用,成功孵化多个测试服务落地,获得AI测试相关专利5篇。曾分别负责过客户端业务、服务端业务的质量保障工作。
待定
待定
动态知识驱动LLM的具身智能测试分析提效工程与实践
1. 在智能化测试领域,对业务和需求的理解,是智能化测试的难点
2. 传统静态知识库难以应对需求高频变更
本议题提出动态知识驱动的具身智能测试框架,通过实时演进的业务知识库,赋予 LLM 环境感知能力,实现需求分析、风险分级、测试策略的闭环优化,再通过模型训练,精细化分配测试人力,助力业务仅通过风险分析,提升测试效能30%,为全智能化测试打下夯实基础。

内容大纲
1. 智能测试提效应用的现状与背景
    1.1 当前业内AI测试应用的现状,各类测试应用投入的收益情况分析
    1.2 我们在测试应用上的探索和成果
2. 动态知识驱动LLM的具身智能测试分析提效方案
    2.1 动态知识库构建
    2.2 需求测试分析Agent架构与实现
    2.3 需求精细化智能测试架构
3. 效果、收益、推进落地
    3.1 模型训练评估与评测
    3.2 应用落地收益
4. 展望
    4.1 人机协作重构与全智闭环自主决策质量保障

听众收益
1. 直接复用的框架:动态知识库构建方法、功能点分级保障评估模型训练方法
2. 效能提升路径:测试效率分析方法与收益空间预估思路
郑林
百度 资深测试工程师
百度资深测试工程师,拥有10余年测试与测试工具研发经验,现负责API测试智能体和数字员工的设计与实现。长期深耕质量工程领域,曾在QECon、MTSC等行业会议中分享测试技术与实践经验。
待定
待定
API测试智能体:从自动化到智能化的跃迁
随着微服务与云原生架构普及,API成为系统交互核心载体,高频测试需求与复杂维护矛盾凸显。
传统测试模式面临三大矛盾:
1. 高频调用与低效工具冲突(如Postman难以处理多API顺序调用与异步场景)
2. 敏捷迭代与脆弱测试矛盾(人工修复耗时源于字段/路径变更引发的用例失效)
3. 分布式依赖与环境耦合困境(跨服务测试数据隔离困难)

核心痛点表现为:
1. 多API交互脚本复杂:参数传递、冗余断言及异常分支
2. 高频变更维护失控:非功能变更触发(如字段更名)导致的测试失败频发,灰度发布存在版本路由覆盖缺口,文档用例脱节导致误报率增长
因此传统工具效率滞后于复杂场景需求,亟需智能化升级

内容大纲
1. 智能体核心功能架构
    1.1 智能用例生成引擎
          1.1.1 基于自然语言的动态场景生成
          1.1.2 参数依赖智能推导
          1.1.3 自适应断言生成
    1.2 执行与自修复引擎
          1.2.1 变更感知与用例动态适配
          1.2.2 灰度环境智能路由
          1.2.3 跨环境一致性保障
    1.3 报告与Bug生成中心
          1.3.1 多维度测试报告
          1.3.2 缺陷自动化诊断
2. 交互层:低代码与自然语言融合
    2.1 自然语言驱动测试设计
    2.2 可视化编排界面
    2.3 协作与知识沉淀
3. RAG智能增强体系
    3.1 知识库构建与动态更新
          3.1.1 API文档向量化存储
          3.1.2 历史缺陷库与解决方案知识图谱
    3.2 上下文感知的智能检索
          3.2.1 故障模式匹配
          3.2.2 测试策略推荐
    3.3 自进化学习机制
          3.3.1 执行反馈强化模型
          3.3.2 领域知识主动补全
4. 落地效果和展望
    4.1 落地效果
    4.2 展望

听众收益
通过自然语言交互、智能交互与rag构建三大核心技术,给听众提供多重价值:
1. 测试效率革新:测试设计从小时级压缩至分钟级,系统自动适配接口变更,大幅降低维护成本
2. 测试质量提升:全链路回归和智能定位故障,提前发现测试和灰度发布兼容风险
3. 测试门槛降低:通过知识库沉淀使新人培养周期大幅缩短
4. 可复用的流程和协同升级:自动化知识构建,消除不同部门的知识差异
冯茂盛
中兴通讯 过程改进总工
中兴通讯,测试总工,主要负责产品的测试域改进和AI提效,包括测试设计、自动化开发和流水线部署,保障产品的功能、性能、安全等交付任务的有序开展。
待定
待定
基于知识工程的全栈AI智能测试体系
测试点设计遗漏导致的故障泄露多;脚本开发和脚本调试耗时,流水线失败脚本分析耗费人力多。

内容大纲
1. 测试设计
    1.1 测试域SOP流程细化拆解
    1.2 要素化表达的特性因子建设、基于因子组合的测试点生成方法、基于场景模型的测试用例生成
    1.3 基于语法规则、测试设计规则、领域业务规则、规范性要求的测试用例自动评审
2. 脚本生成
    2.1 关键字参数生成方案
    2.2 脚本自动修复
    2.3 脚本评审
    2.4 语料自动沉淀、知识流水线自动抽取
3. 智能分析
    3.1 智能分析流程  
    3.2 小模型训练提升准确率
    3.3 置信度评估,高置信度结果直接采纳、思维链显性化,减少人工分析人力

听众收益
1. 测试域SOP流程细化拆解
2. 要素化表达、特性因子建设
3. 用例和脚本评审
4. 关键字参数替换
5. 语料置信度评估
关注QECon公众号
议题投稿
lijie@qecon.net
商务合作
151-2264-3988  木子
票务联系
135-2067-8913  郭梦媛
媒体合作
135-1619-6409  皮皮
添加QECon小助手,获取
会议最新资讯
购票咨询
13520678913  郭梦媛
服务总线
400-183-9980