专场:自动化到智能化测试实践 
在数字化转型加速的当下,自动化测试已成为软件研发效能提升的核心引擎。从接口自动化、UI自动化到持续集成中的测试流水线构建,各行业正通过自动化测试实现快速交付与质量保障。但随着业务复杂度提升,传统自动化测试面临脚本维护成本高、场景覆盖不足、异常检测能力弱等挑战,行业亟需探索更智能的解决方案。当前,AI技术的突破为自动化测试注入全新动能,本次「自动化到智能化测试实践」分论坛,将聚焦一线互联网公司前沿实践,探讨AI赋能测试实践,迎接质量保障的智能时代。
专场出品人:徐艳
微众银行 存款科技产品部 DevOps测试平台负责人
金融科技领域十年深耕,在微众银行先后负责多个中大型项目的质量保障工作。深度参与行内测试过程管理及测试工具建设,从0到1设计并落地自动化测试平台,实现全业务场景自动化测试覆盖,并主导平台向DevOps一体化演进,实现CI/CD全流程贯通。深入研究接口自动化测试、精准测试、灰度测试、自动断言、流水线等专项领域功能,参与制定并落地研发质量全流程规范,致力于提升团队效能。
马先先
字节跳动 测试资深专家
字节跳动今日头条创新方向测试leader,目前主要负责字节跳动基于AI技术的业务应用方向的实践, 落地AI技术在质量领域的提效和应用,例如在埋点测试方向引入大模型,实现智能埋点测试、基于大模型和离岸背景的测试分级等,同时参与模型效果评测,参与相关撰写专利7篇。毕业后曾就职于腾讯公司,擅长海量内容类测试和测试提效等方向。
待定
待定
基于大模型的埋点风险诊断和测试提效
埋点测试面临埋点量级大、测试耗时长,且因为埋点之间关系的黑盒性,导致埋点的质量风险难以判断,长期依赖数据、研发和测试共同人工判断,导致的测试效率低,质量风险不可控。
1. 大模型背景下,质量领域的变革
2. 大模型在埋点测试上的应用和效果
3. 知识图谱和模型诊断调优

内容大纲
1. 埋点测试和大模型应用的现状与背景
    1.1 当前大模型在质量领域的应用现状和效果分析
    1.2 当前埋点质量治理领域的常见方法和思路
    1.3 我们在埋点方面的大模型应用
2. 知识图谱生成和模型策略
    2.1 知识图谱生成思路和方法
    2.2 大模型在风险诊断方面的策略
3. 效果收益
   3.1 知识图谱评估
   3.2 智能埋点落地收益
4. 展望
    4.1 埋点全生命周期风险雷达图
 
听众收益
1. 字节在大模型质量领域的应用情况
2. 智能埋点测试的实战经验和效果
3. 质量知识图谱的构建

朱嘉丽
支付宝 算法工程师
蚂蚁集团支付宝工程效能团队高级算法工程师,目前主要负责基于大模型应用的UI自动化测试,推进基础多模态算法、UI大模型技术在小程序发版迭代、质量巡检、体验性治理等场景上的应用,助力小程序问题智能化检测、测试用例自动生成,降低用户舆情、减少人效投入,保障线上小程序的功能稳定性与用户体验。
待定
待定
基于多模态大模型的UI自动化测试
小程序质检在真实场景中复杂性高,人工评测/审核往往主观性强。当问题出现的链路更深,人工评测难度进一步扩大,无法全面覆盖小程序的完整业务链路,识别系统异常和业务异常,对人力、资源都是巨大的消耗。该议题聚焦于利用深度学习和多模态大模型技术,对小程序进行页面、动线维度的自动化检测,同时生成AI自动化测试用例,维护成本低,大大减少人效投入,保障线上小程序的功能稳定性与用户体验。

内容大纲
1. 问题定义
    1.1 支付宝小程序质量主要测试场景
    1.2 面临的挑战和难题
2. 基于AI技术质量检测方案
    2.1 整体系统架构概述
    2.2 方案总体链路介绍
    2.3 以点餐为例结果报告介绍
3. 智能异常检测算法-理解业务场景异常
4. 智能测试链路算法-理解用户操作路径
5. 场景落地效果与评估
6. 总结与展望

听众收益
启发算法、大模型思维,促进在自动化测试领域的提效
李贺松
华为云 PaaS测试TSEG Leader
华为云测试技术专家,PaaS 服务产品部测试TMG主任、TSEG Leader 、华为智能化测试TMG成员,负责PaaS 服务产品部测试工程和技术能力构建和探索,目前主要聚集AI辅助测试设计、AI辅助测试代码生成、AI辅助失败用例分析、AI辅助API自主遍历测试等领域的探索和实践。
待定
待定
基于需求上下文知识增强的LLM辅助测试设计实践
当前大部分的LLM辅助测试设计更多依赖需求自身的描述和设计质量,缺少高质量的上下文信息获取。然而在DevOps 模式下,80%以上的需求已有特性的功能增强,如何让模型高效获取高质量的上下文信息对模型生成的测试点&测试用例的质量有决定性的影响。

内容大纲
1. 议题背景
    1.1 测试人员在开展测试设计时的关键痛点
    1.2 LLM辅助测试设计实践面临的关键挑战
2. LLM辅助测试设计左移
3. 基于特性建模的需求上下文知识增强
4. AI辅助测试设计思维链优化
5. AI辅助存量测试设计资产优化

听众收益
1. 将AI辅助测试设计左移到需求设计和串讲阶段,辅助架构提升需求设计质量、辅助开发提升需求自测质量、辅助测试提升端到端的需求设计质量;
2. 通过需求上下文知识增强,显著提升了LLM对需求上下文知识的理解能力,LLM辅助生成的用例质量有了质的提升。
刘博
字节跳动智能测试产品负责人
7年产品经验(字节、猎豹移动)。
曾就职于猎豹 AI机器人项目团队,目前在字节跳动 DevInfra团队,服务端智能测试方向,负责服务端测试智能化升级、接口测试效率和质量提升等。 

擅长领域:AI驱动的智能化测试、质量保障体系化建设、产品设计&项目管理。
待定
待定
接口测试智能化的探索实践
随着生成式AI技术的加速演进,软件研发测试周期持续缩短,软件迭代已进入"天级"交付时代,接口作为系统联动的核心枢纽,其测试效能直接影响交付质量。

本案例深入探索了如何基于AI驱动的方式解决接口测试领域的业务痛点问题。涵盖用例生成、归因分析、测试评估等方面。通过流量理解、程序分析、场景挖掘、智能归因等方式,结合GenAI能力在各个阶段重构原有的测试范式,探索全新的智能接口测试实践落地。

内容大纲
1. 问题:接口测试领域的业务痛点,从用例生成到归因分析
2. 思路:AI如何助力接口测试解决效率、质量问题
    2.1  基于流量逻辑的用例生成&续写
    2.2  测试风险场景智能挖掘
    2.3  逻辑断言挖掘&智能Diff
    2.4  基于程序&日志的测试结果智能分析
3. 实践:建立GenAI驱动的智能接口测试解决方案
    3.1  面向研发自测的智能接口测试工具,助力业务测试左移
    3.2  面向QA回归测试的智能自动化测试,提升测试重复度和效率
4. 展望:AI辅助测试到全面智能化测试的演进之路

樊展飞
中国移动咪咕 技术测试总监 
测试团队负责人
18年软件开发和测试工作经验,现任咪咕文化有限科技公司 技术测试总监、测试团队负责人。
牵头咪咕公司测试团队管理,测试能力建设、主导智能化测试平台建设工作。
待定
待定
大模型驱动下的测试用例自动生成与执行结果智能分析
本议题是测试团队借助大模型与机器学习算法在自动化测试过程中的一次端到端智能化测试实践,旨在为项目开展自动化测试提效赋能,解决自动化测试落地过程中,脚本写作与维护效率低、场景覆盖不全、校验不充分、失败原因分析耗时、自动化度量手段单一等痛点问题。

内容大纲
1. 测试用例与脚本智能生成
   1.1 测试智能体构建(以中移动“九天”大模型和DeepSeek为基座,结合知识库与知识图谱等技术,构建测试智能体)
   1.2 测试智能体应用(根据提示词与需求描述自动生成测试用例和自动化脚本,提升写作维护效率)
2. 自动化执行结果智能分析
    2.1 失败原因自动归类(基于微调后的BERT模型,根据错误日志判断脚本失败原因)
    2.2 系统缺陷自动提交(判断为系统Bug引起的执行失败,自动提交缺陷单)
关注QECon公众号
关注QECon视频号
议题投稿 
lijie@qecon.net  
票务联系 
159-0126-5561  小娟
 
媒体合作
135-1619-6409  皮皮
商务合作
151-2264-3988  木子
购票咨询
15901265561  小娟         
服务总线
400-183-9980