专场:数据驱动测试与精准测试 
本专场聚焦于大模型时代软件工程的核心挑战:如何在保障质量的同时提升效率。我们将深入探讨数据驱动测试与精准测试的前沿实践,分享如何利用交付数据(如历史缺陷、代码知识图谱)构建智能化风险评估模型,以精准定义测试范围,优化资源配置。同时,专场将直面AI原生业务的测试难题,探讨如何为大模型构建高质量的评测数据集和多维度评估体系,并分享在DevOps流程中协同测试左右移策略、建立实时反馈机制的最佳实践,旨在构建面向未来的智能化质量保障体系。
专场出品人:王伟
百度 移动生态质量效能部 资深测试工程师
百度资深测试专家,在交付质量改进和效率提升方面有丰富的工作经验,具有深厚的数据分析经验,主导并推动了百度APP的单周发版模式落地,主导并建设了百度首个体系化的视频质量评测服务平台,在解决视频质量评测的标准化、置信度、效率方面有丰富的实践经验。翻译过多本英文优秀书籍,编写了开源书籍《LLM in Action》,在大模型的质效领域应用以及评估提效方面具有丰富的实践经验。
吴珣
同程旅行 技术专家
同程旅行技术专家,目前负责公司级智能质量工程体系规划与建设。打造了一站式质量管理平台、精准测试平台、代码染色平台等基础设施,参与质量度量、压测平台等多个项目的建设与推广。负责的产品和服务,已深度应用多个业务BG,日均处理量突破10万+请求。在智能化转型方面,多次将大语言模型应用于质量缺陷识别与分析场景,在提示词管理、提示词调优及Dify工作流编排等环节,积累了丰富实践经验。
待定
待定
精准测试遇上大模型:精准数据价值变现的智能化探索
在敏捷开发与微服务架构盛行的当下,软件迭代周期持续压缩,系统架构愈发复杂。面对项目日均数十次的Git提交与合并操作,以及高频次、多模块的代码变更,QA团队在变更感知、识别功能影响域、防止漏测等方面遭遇严峻挑战。
基于基础精准测试体系,依托单应用汇维度的变更接口感知、代码调用链路分析、自动化测试调度以及AI驱动的测试用例动态生成等核心能力,构建跨应用、跨模块的全局变更影响评估能力,实现全链路应用数据的智能聚合与深度分析。此外,通过建立需求与Git操作的强绑定机制,构建了"需求-代码"双向追踪机制,实现了需求维度可追溯关联的所有Git提交记录、分支操作等研发全生命周期事件及变更分析报告,同时代码维度可反向获取原始需求的业务上下文。基于大语言模型(LLM)的智能分析模块,深度融合代码变更语义特征、调用链路拓扑关系与需求业务知识图谱,实现了基于语义理解的智能测试用例生成和结合业务、代码上下文的自动化CodeReview系统。此能力显著提升了数据分析的智能化水平,可推动精准数据向业务成果的高价值转化。

听众收益
1. 了解同程旅行在基础精准测试方向的研发方案
2. 了解基础精准测试平台,与Dify、项目管理、构建发布、流水线、三方自动化测试调度、覆盖率度量等平台等间的协作提效与价值变现
3. 了解精准测试数据的聚合分析方案与私有化方案
4. 了解精准测试数据,在使用LLM做用例生成、CodeReview、变更分析汇总等方面的应用实践与效果
武天雄
华泰证券 高级开发工程师
华泰证券测试交付中心高级开发工程师,专注于金融IT系统质量保障与自动化测试架构设计,主导研发华泰证券统一测试管理平台及实时流量回放测试工具,推动核心业务系统自动化转型,提升测试效率与质量保障能力,擅长流量驱动测试、AI大模型测试落地及智能化测试架构设计。硕士毕业于南京大学,学科背景丰富,在数学建模、智能汽车、电子设计等领域曾获国际级奖项1项,国家级奖项5项。

华泰证券测试交付中心是公司核心技术力量,负责全业务线质量保障与测试技术创新,覆盖经纪业务、交易、行情、支付清算等系统。在日志回放测试、自动化与智能化测试等方向保持行业领先,持续打造高效、稳定、智能的质量保障体系,为公司核心业务稳定运行提供技术支撑。
待定
待定
AI大模型赋能金融系统自动化测试实践
针对金融系统接口复杂、业务场景多元且迭代加速导致的测试质效双重压力,本案例创新融合生产流量数据与大模型能力,构筑AI驱动的测试新范式:通过日志解析、场景挖掘、用例生成等智能模块闭环运作,动态分析覆盖盲区并自动补强;结合流量资产增强及策略优化,主动识别潜在风险,系统性提升金融质量保障能力。

内容大纲
1. 背景
    1.1 金融系统测试面临的难题
    1.2 AI驱动自动化测试的价值定位与落地目标
2. 解决方案框架设计
    2.1 整体思路:以生产真实流量为基底,以大模型为引擎的用例生成体系
    2.2 系统框架设计与方案流程详解
3. 核心节点AI能力实践与技术难点攻关
    3.1 规则解析代码自动生成模型
    3.2 关键业务参数智能标定模型
    3.3 推荐断言智能生成模型
    3.4 用户行为分析模型
    3.5 测试结果智能分析模型
4. 多维能力扩展与应用
    4.1 模糊测试:基于真实参数资产的精准变异
    4.2 回放对比测试:深化接口画像与颗粒度细化,提升冒烟测试效率与流量质量
5. 落地效果与评估
    5.1 业务影响度和覆盖标准模型
    5.2 以生产缺陷和影响度融合的风险评分系统
    5.3 多业务系统实践展示
6.总结与展望

听众收益
以系统框架设计为参照,明确自动化测试与大模型技术的融合要点及技术难点的解决方案,为团队建立覆盖广、效率高、准确性强的自动化测试体系提供参考范式。
郑义川
百度 资深工程师
百度ACG工程效能部资深工程师,目前主要负责质量团队测试工具的平台化整合与能力统一,推动自动化测试的低/无代码转型与智能化演进,并主导测试平台的离线交付解决方案,有效支撑20+产品线的自动化体系建设落地。同时推动大模型在接口测试用例生成方向的实践与应用,推动AI能力在质量场景中的落地与优化。毕业后曾就职于央企和滴滴,从事控制系统开发、自动化治理、测试服务化与测试能力左移等工作。
待定
待定
基于LLM的接口自动化测试用例生成落地实践
当前,多数业务线仍保留大量人工编写的测试用例。这些用例虽然沉淀了丰富的业务知识,但在自动化推进过程中,依赖人工转化为自动化脚本,成本高、周期长、一致性差。
随着大模型在文本理解与逻辑推理方面表现出的强大能力,我们探索将其应用于接口自动化测试领域。通过解析已有的手工用例文本、接口定义信息、以及上下文配置,模型能够自动推理业务流程、识别输入输出关系、构造边界/异常用例,从而生成高质量、可执行的自动化测试用例,显著降低人工工作量,提高用例生成效率与一致性。

内容大纲
1. 背景与演进动因
    1.1 自动化测试面临的现实困境:用例碎片化、转化成本高、复用率低
    1.2 平台化、无代码化与智能化的趋势与驱动力
    1.3 构建“测试生成-管理-执行”一体化的自动化体系
2. 无代码化测试用例生成平台化建设
    2.1 用例结构化元数据模型设计
    2.2 可视化配置与自动脚本生成平台实现
    2.3 跨业务线用例标准化与通用建模的落地实践
3. 大语言模型能力集成与智能用例生成探索
    3.1 数据准备:构建推理所需的高质量“用例+接口”语料
    3.2 智能生成链路拆解:Prompt设计、生成、结构化、校验
    3.3 迭代优化机制:生成数据校验与自修复
4. 落地效果与发展方向展望
    4.1 生成准确率分析
    4.2 当前大模型的挑战与边界
    4.3 未来规划:Agent化测试生成、用例生成即测试执行、风险预测与推荐

听众收益
1. 理解大语言模型在接口测试用例生成环节的具体发力点
2. 获得智能化用例生成平台建设的实践路径与经验教训
3. 了解模型的能力边界、应对思路与真实落地成效
傅景良
腾讯 测试开发工程师
北京科技大学硕士毕业,曾就职于Oracle、EMC,从事测试开发和质量保障工作。2015年加入腾讯广告,主要负责腾讯广告工程效能和自动化测试体系相关建设,曾打造围绕主干开发模式相关的git客户端辅助工具、持续交付系统、DIFF回归工具、ECPM还原和校验等重要系统,目前专注于建设AI辅助WebUI自动化回归测试建设,以及AI在测试领域的探索与应用。
待定
待定
AIGC驱动的Web UI自动化测试实践
问题分析与解决思路
1. 核心痛点
1.1 WebUI测试消耗人力巨大:广告业务场景复杂多样,要求测试能覆盖所有关键路径和异常情况,测试人力消耗大,其中UI测试占据总测试人力46%,发现的缺陷占总缺陷65%
1.2 用例编写维护成本高:传统WebUI自动化测试脚本维护高度依赖人工干预,模块化设计不理想时,每次页面变更都需要大量调整脚本,导致维护成本居高不下。
1.3 元素定位不稳定:通过xpath、坐标、动态的ID或class等来实现的元素定位方式,稳定性相对较差,很容易受到非功能变化的影响而大面积失败。
1.4 环境依赖强、执行效率低:对测试环境要求高,执行速度慢,问题排查难度大,进一步影响了自动化的信心和推广。
2. 解决思路
2.1 测试智能体:基于混元VLM大模型训练专家模型,实现剧本自动生成脚本,以及用例执行失败自愈。
2.2 智能断言:基于DIFF思想,自动生成断言,检查UI交互问题和CGI参数错误。
2.3 录制转用例:结合录制回放机制,实现回归用例快速生成,减少人工编写剧本成本。

内容大纲
1. 现状与痛点
2. 基于混元大模型的用例生成与执行
    2.1 技术架构
    2.2 感知层:网页结构与状态理解
    2.3 决策层:任务规划与操作决策
    2.4 校验层:智能断言生成与执行
3. 迭代式模型训练工作流
    3.1 训练专家模型面临的挑战
    3.2 训练数据准备策略
    3.3 全自动数据生成
    3.4 模型效果评估数据
4. 基于流量录制回放的用例进化
    4.1 技术架构
    4.2 线上用户操作录制
    4.3 录制回放环境一致性规范化
    4.4 时序和状态依赖的录制回放
    4.5 用例去重和更新
5. 总结与展望
 
听众收益
1. 效率升级:通过大模型驱动的用例自动生成与执行,显著提升测试效率,减少重复劳动,让团队聚焦于高价值创新任务。
2. 智能断言:依托AI能力自动生成和执行断言,主动发现潜在缺陷,实现从“人工检视”到“智能守护”的质量保障。
3. 技术沉淀:标准化流程与AI能力持续积累,构建可复用、可扩展的自动化测试体系,降低后续维护与升级成本。
关注QECon公众号
关注QECon视频号
议题投稿
lijie@qecon.net
商务合作
151-2264-3988  木子
票务联系
186-4907-7637 胡利利 
媒体合作
135-1619-6409  皮皮
购票咨询
胡利利 18649077637
服务总线
400-183-9980  
电话咨询
联系电话:
胡利利 18649077637