专场:自动化到智能化测试实践 
随着生成式AI、大模型和云原生技术的爆发式发展,测试领域正迎来智能化变革的关键拐点。本专题聚焦AI、大模型(LLM)、低代码/无代码等前沿技术如何重塑测试实践,探讨智能测试生成、自愈测试、基于大模型的用例优化、云原生与持续测试等热点方向。来自行业领先企业的技术专家将分享真实落地案例,包括如何利用AI提升测试覆盖率、降低维护成本,以及智能化测试在DevOps和云原生场景中的最佳实践。无论您是测试工程师、质量保障专家,还是技术负责人,本专题都将为您提供可借鉴的实践经验,助力企业构建更高效、更智能的质量保障体系。
专场出品人:刘刚
京东科技 测试架构师
质效无双联合出品人,现任京东科技测试架构师,曾主导部门研发效能和敏捷实践,拥有十多年资深测试开发经验,技术上有丰富的接口自动化、性能、UI 自动化及安全测试经验,并建设优化过多种自动化框架;测试管理上有丰富的测试架构体系建设经验、敏捷测试管理经验及CICD实施经验,主要负责过大型银行项目、电商物流平台、私有云平台、支付平台等系统的综合质量保障工作。常作为受邀演讲嘉宾参加各类技术大会,演讲内容主要涉及研发效能、AI实践、自动化、敏捷测试、质量管理等方向的技术分享。
赵先炮
快手 电商 营销质量负责人
快手电商营销质量负责人,负责营销导购组的质量保障工作,包含基础质量建设、⼤促质量保障、稳定性建设等,同时推动了质量分在电商的落地和哨兵平台的建设。
待定
待定
大促狂欢背后的质量守护体系与团队效能升级之路
大促已成为电商行业的重要增长引擎,然而在订单量激增的背后,质量保障压力陡增。传统保障模式面临线上反馈响应滞后、重复劳动多、故障应对效率低等问题,严重制约团队效能。随着技术发展,如何在保障系统稳定的同时,提升团队应对大促的效率,简化重复劳动,成为行业关注的焦点。本次演讲将深入探讨相关解决方案。

内容大纲
1. 大促保障体系的演变与现状成果
    1.1 演变过程:梳理从早期被动救火到系统化布局,再到智能化探索的三个阶段特征
    1.2 当前保障体系构成:涵盖组织协同机制、项目交付保障、应急响应流程等核心模块
    1.3 现状成果:聚焦系统稳定性指标保持、交付效率提升等关键成果数据
2. 当前大促保障面临的困境与提效方向
    2.1 面临的困境:分析线上反馈瞬时爆发、手工操作冗余、演练覆盖不足等具体挑战
    2.2 提效升级的必要性:结合业务增长预期,说明效能提升对支撑更大规模大促的战略意义
    2.3 技术驱动的提效路径:明确以大模型 agent 为核心,联动原子能力建设的保障框架升级
3. 
基于大模型的 agent 在关键场景的应用
    3.1 舆情反馈应答的应用
          3.1.1 传统舆情处理的痛点:详述人工分级慢、应答标准化不足等实操难题
          3.1.2 agent 的作用:说明从信息抓取到智能应答的全流程自动化实现逻辑
          3.1.3 应用效果:通过对比数据呈现响应时效与人力成本的优化幅度
    3.2 优惠报价场景提效的应用
          3.2.1 手工测试的现状:剖析业务理解门槛高、重复性操作繁琐等典型问题
          3.2.2 原子 MCP 能力的支撑:解释原子化拆解思路与可复用组件的设计原则
          3.2.3 agent 的应用:描述 agent 如何调用原子能力实现手动测试的自动编排与执行
          3.2.4 应用效果:量化日常维护成本降低与测试覆盖率提升的具体数值
    3.3 下单场景提效的应用
           3.3.1 手工测试的现状:前置操作链路长,研发自测执行成本高,高频迭代下低效问题更突出
           3.3.2 原子 MCP 能力的支撑:针对下单各节点进行原子化拆解,提供轻量可复用组件,降低使用门槛
           3.3.3 agent 的应用:agent 调用原子能力可编排全流程,实现前置冒烟测试一键触发。简单配置即可低成本跑通
                   全流程,减少手工操作
           3.3.4 应用效果:量化操作时间缩短、自测成本降低的具体数值,同时体现维护成本下降
4. 团队效能升级的综合成果与未来展望
    4.1 效能提升体现:从人均处理量、问题解决周期等维度展示团队能力进化
    4.2 对大促保障的积极影响:分析效能升级如何反哺系统稳定性与用户体验优化
    4.3 未来发展方向:探讨 agent 能力迭代、原子化体系扩展的中长期规划

听众收益
听众能了解到大促保障体系的发展历程和现状,从中获得应对保障困境的启发。可以借鉴基于大模型的 agent 在舆情反馈、手工测试、故障演练等场景的应用思路和方法。同时,能避免在提效升级过程中可能遇到的问题,少走技术应用和团队管理的弯路,推动自身团队效能提升。
任兆勇
腾讯 理财通质量业务负责人
腾讯理财通质量业务负责人,目前主要负责理财通业务质量体系的建设和保障工作,从0到1搭建了金融领域自动化测试和专项测试能力,包括资金安全异常注入测试,以及系统化的引流测试能力,并有效落地了AI用例生成和智能化执行等大模型能力。7年后台开发经验,5年测试开发经验,一直从事于金融业务的资金安全和稳定性等保障工作。
待定
待定
理财通自动化测试到智能化测试的演进落地实践
业务介绍:理财通业务系统主要有交易核心系统和运营活动核心系统组成,业务场景非常丰富,涉及全行业几万只公私募基金的销售平台,后台架构采用分层微服务架构,端到端链路长,模块数多达几千个,质量保障难度大。
背景介绍:2023年以前,现网业务资金问题频发,质量团队还处于传统手工测试模式,研发质量和效率都很差。
思考方向:通过建设自动化测试和智能化测试能力提升质量和效率。

内容大纲
1. 测试行业整体演进趋势介绍
    1.1 整体演进趋势思考
     1.2 行业现状分析
2. 手工测试到自动化测试升级
    2.1 整体升级背景和方案
    2.2 自动化测试落地实践
    2.3 资金安全专项测试落地实践
    2.4 引流专项测试落地实践
    2.5 落地效果展示
3. 自动化测试到智能化测试升级
    3.1 整体升级背景和方案
    3.2 AI智能化验收用例生成实践
    3.3 AI智能化验收执行实践
    3.4 落地效果展示

听众收益
在自动化测试和AI智能化测试实践落地过程,可以借鉴我们走过的路,同时也提供一些实践过程的思考,包括大模型在实际业务场景中能够解决哪些问题做疑难解惑。
李亚娟
快手 高级测试开发工程师
任快手商业化效果营销广告团队高级测试开发工程师,主导快手商业化广告业务层与中台层的全链路测试体系建设,以 “技术基建 + 工具平台”双轮驱动,构建覆盖广告生产、数据传输、效果数据回传等全场景质量防护网;并承接商业化广告稳定性演练与效果资损防控专项,构建 “AI 模型 + 阶段自动化工具” 的立体化质量防护体系,最终通过各环节技术能力的深度协同,实现商业化广告全链路 0 资损保障方案的标准化落地。
待定
待定
AI赋能快手商业化广告服务端CICD体系
本次分享将聚焦快手商业化广告服务端的核心痛点:面对业务快速迭代与系统稳定性的双重压力,如何筑牢从数据生产到传输的全阶段质量防线、杜绝资损?我们将拆解服务端质量保障与资损防控的方案沉淀,同时在广告服务端各环节中结合大模型的应用实践,探索技术如何破解业务与稳定性的平衡难题。

内容大纲
1. 商业化广告服务端的质量挑战与难点
    1.1 问题场景分类挑战
    1.2 全阶段质量防护与零资损目标
2. 商业化广告服务端全阶段AI化的建设策略
    2.1 角色升级:AI 驱动下 QA 角色的转型与能力拓展
    2.2 流程重构:AI 赋能广告服务端测试流程的效率革新
3. 商业化广告服务端全阶段工具AI化(L1)质量保障方案
    3.1 前置防控:AI 驱动的广告服务端风险智能识别
    3.2 用例提效:AI 辅助的广告业务测试用例自动生成
    3.3 执行优化:AI 赋能的测试用例自动化执行
    3.4 实时拦截:AI 支撑的广告服务端风险质量准出强卡点
    3.5 持续监控:AI 驱动的广告服务端质量风险常态化巡检
4. 商业化广告服务端基建工具 AI 化(L2):全阶段质量规划与探索方向

听众收益
我会从实际业务落地、技术能力复用、解决思路驱动三个维度梳理听众收益,结合广告服务端质量保障、资损防控及大模型应用场景,让收益更贴合不同听众的需求。所有听众可了解大模型在广告服务端的实际应用场景,为技术创新与业务赋能提供新思路,助力突破工作中的技术瓶颈。
田锐
新浪微博 高级测试开发工程师
新浪微博 高级测试开发工程师,目前主要负责微博测试中台中台架构的设计与开发,以及广告业务线的质量保障工作。深度参与多项核心测试平台与自动化系统的构建,包括机器人框架、天河(需求管理系统)、天秤(质量度量)、天工(智能工作台)等,致力于通过AI技术与测试业务的深度融合,提升测试效率与系统稳定性。拥有多年互联网测试开发经验,毕业后曾就职于360,从事测试工具开发与质量保障相关工作,在复杂业务场景下的测试体系构建、自动化框架设计及质量效能提升方面具备丰富实战经验。
待定
待定
AI驱动的智能测试工作流
当前测试领域已在单点环节尝试AI应用,但这些应用缺乏统一的输入/输出标准、数据规范和集成接口。这导致工具间无法对话,形成数据孤岛和流程断点。本次演讲围绕如何通过AI技术重构端到端测试工作流,实现从需求解析→用例自动生成→代码自动编写→自动部署测试环境→自动执行代码→测试报告智能总结的全流程自动化,不仅解决单点智能的困境,更致力于探索智能测试工作流的标准化架构与落地路径。

内容大纲
1. 背景与行业痛点分析
    1.1 点状智能而非流程智能
    1.2 标准化不足
2. AI驱动的测试工作流整体架构设计
    2.1 基于LLM的智能需求分析与测试场景识别
    2.2 多模态测试用例自动生成技术
    2.3 多语言测试代码的自动生成与执行适配
    2.4 自动化测试环境部署与容器化调度方案
    2.5 测试报告的智能生成与多维度可视化分析
3. 关键子流程技术与落地实践
    3.1 用例生成:结合业务语义,知识库、结构解析自动输出高覆盖用例
    3.2 智能环境部署:基于K8s和Docker的AI调度与资源自适配
    3.3 代码生成:Prompt工程+大模型实现代码自动生成,自我检查和修复,支持多工程,多需求的代码生成
    3.4 动态文件编辑:云端一体化工作空间可进行实时预览,动态编辑和调试
4. 案例与经验分享
    4.1 微博业务全链路智能测试实践案例,在部分业务上进行了落地,整体测试时间减少30%
    4.2 实践过程中遇到的问题
5. 未来演进方向
    5.1 迈向自主智能体协同的“无感”测试

听众收益

1. 获得一套经过大规模业务验证的智能测试全链路解决方案
2. 了解AI技术在测试各环节落地的具体方法和实践细节
勾志营
中国工商银行 安全测试工程师
长期在安全测试领域工作,拥有丰富的安全测试及管理经验,目前负责工行安全测试工具研发、运营以及安全测试团队管理工作。
待定
待定
智能化安全测试体系构建与实践
1. 安全测试专业性强:安全测试高度依赖人工经验,测试人员需掌握多领域知识,包括基础安全漏洞、网络协议分析、密码学、代码审计等。在传统的安全测试过程中,测试人员安全专业知识有限,易出现覆盖不全而导致遗漏。
2. 业务类漏洞自动化能力不足:目前业务漏洞检测规则与业务逻辑强相关,无法通过固化规则自动检测,且攻击手段具有多样化和持续演进的特性,近三年业务漏洞变种年增长率超30%,目前已达数干种。

内容大纲
1. 背景与挑战
2. 智能化安全测试平台构建
    2.1 传统安全测试
    2.2 智能化安全测试平台
          2.2.1 安全案例智能推荐:研发基于大模型的安全案例智能推荐,总结 TOP10漏洞,针对需求、功能设计内容智能推
                   荐对应的安全案例,将手工引用安全公共案例的步骤转化为智能化案例推荐,扩大安全测试覆盖面,为测试
                   员降本提效。
         2.2.2 业务安全智能扫描:基于大模型开展安全知识库、漏洞知识库、流量库的打标建设,开展越权、短信轰炸
                  TOP10漏洞的扫描和智能判断。
          2.2.3 场景化智能测试:通过安全测试规则引擎、智能对话形式,结合自动渗透测试能力,引导测试人员开展多种攻
                  击路径的场景法安全测试,提升高阶安全漏洞挖掘效率。
3. 实践案例
4. 未来展望

听众收益
1. 如何安全测试覆盖更全?
2. 如何让业务安全测试更自动化?
3. 如果借助大模型让安全工具准确率更高?
张文博
蚂蚁集团 高级测试开发工程师
蚂蚁集团支付终端质量团队高级测试开发工程师,目前主要负责支付宝智能穿戴业务的质量保障、端到端算法评测等。保障成人手表手环支付宝,儿童手表支付宝,智能眼镜看一下支付等产品的高可用性,稳定性,以及扫码算法,看设备算法,语音意图算法在智能终端上的效果评测。毕业后曾就职于微软,阿里巴巴,从事UI自动化,质量度量平台等项目的开发工作。
待定
待定
AI眼镜端到端算法自动化评测体系
在智能硬件(如AR眼镜)的研发中,算法与硬件的协同优化是核心挑战。传统人工测试效率低、覆盖不全,且难以量化算法性能瓶颈和硬件稳定性问题。如何构建自动化评测体系,快速定位端到端链路中的缺陷(如算法识别错误、语音延迟、硬件崩溃等),并推动问题闭环,是提升产品质量和交付效率的关键。
本议题将结合实际案例,分享如何通过自动化工具和评测方法,在算法评测、硬件监控、素材采集等环节实现质量效能突破,为智能硬件领域提供可复用的解决方案。

内容大纲
1. 背景介绍
    1.1 AI眼镜特点介绍
    1.2 业务背景介绍
    1.3 服务架构背景介绍
    1.4 痛点与挑战
2. 整体方案介绍
    2.1 摄像头算法端到端评测
        2.1.1 评测方案思考
        2.1.2 自动化评测实现方案
                 2.1.2.1 实验室硬模拟
                 2.1.2.2 算法模型评测
        2.1.3 结果收集
        2.1.4 经验教训
        2.1.5 收益说明
    2.2 语音算法评测
         2.2.1 评测方案思考
         2.2.2 评测实现方案
         2.2.3 经验教训
         2.2.4 收益说明
    2.3 基于语音的自动化测试
          2.3.1 验证方案思考
          2.3.2 自动化实现方案
          2.3.3 收益说明
    2.4 端到端算法服务压测
          2.4.1 验证方案思考
          2.4.2 自动化实现方案
          2.4.3 收益说明
3. 总结
4. Q&A

听众收益
1. 启发与借鉴:学习如何从0到1构建自动化评测体系,覆盖算法、硬件、语音等多维度。
2. 直接采用:涉及安全,不会直接分享工具出来
3. 少走弯路:了解硬件监控与端到端算法评测的实战经验。
4. 质量/效能收益:通过自动化工具提升测试效率30%+,问题发现率提升50%,缩短问题闭环周期。
仲思宇
58同城 本地生活 测试平台研发负责人
目前主要负责58到家测试工具体系规划与架构设计,拥有十多项测试工具发明专利。深耕客户端与服务端自动化测试多年,擅长业务质量体系规划及技术赋能落地,丰富的测试平台建设与效能提升经验。
专注领域:质量体系建设、AI测试体系建设
待定
待定
需求测试场景下的多模态 AI Agent 落地实践
尝试用多模态 AI大模型的能力完成视觉需求测试的转型实践,在通过融合视觉识别、文本解析与自动化执行能力,构建 “需求解析 — 链路推理 — 智能执行” 的闭环,大幅降低纯视觉需求的人工测试介入,解决传统模式中人力成本高、自动化转化不足等核心痛点,探索需求测试智能化升级的可行路径。

内容大纲
1. 需求测试的 AI 应用背景:从迭代类型看价值
    1.1 多模态 AI Agent 适配的需求测试场景
    1.2 传统需求测试的痛点与 AI 介入的可能性
2. 多模态 AI Agent 基础能力构建
    2.1 整体架构
    2.2 多模态融合逻辑:视觉、文本、交互结合UI自动化能力协同
    2.3 测试任务拆解与自动化执行能力
    2.4 提高执行准确度的效果
3. 需求文档到可执行测试的关键转化
    3.1 从需求文档到提示词再到执行脚本的自动化转化
    3.2 业务链路知识图谱构建
    3.3 知识图谱的链路查询到执行
4. 业务链路知识库的自更新机制
    4.1 业务链路知识沉淀逻辑
    4.2 AI Agent 自动遍历及更新图谱链路
    4.3 人工测试沉淀内容的自动更新
5. 多模态 AI Agent 在需求落地效果验证
    5.1 试点场景选择:需求生命周期如何完成落地
    5.2 效果数据对比:AI测试的完成率、覆盖度等
    5.3 典型案例展示:从获取需求内容到自动测试全流程演示
6. 持续演进规划:多模态 AI Agent 深化方向
    6.1 场景拓展:从需求测试到需求全生命周期管理
    6.2 边界拓展:多模态AI Agent结合RPA和场景接口等

听众收益
了解基于多模态 AI Agent ,从需求文档解析到测试脚本自动化转化的完整流程,掌握如何梳理需求与业务链路,搭建知识图谱、设计知识库自更新及查询机制,解决需求测试中业务链路、知识难沉淀复用问题,为 AI 驱动测试落地提供实操参考 。

李巍
华为 软件测试工程师
华为公司软件测试和自动化专家,负责产品测试技术规划及测试工程能力建设。对白盒自动化测试、界面自主遍历、AI视觉测试等领域有较深入的研究和实践。
待定
待定
界面测试智能化转型实践
随着产品界面持续增加和界面用户体验的要求不断提高,产品和界面样式规范快速迭代,界面异常/界面样式/国际化修改引入问题持续增加,给产品质量带来巨大挑战。而传统界面手工测试效率低且重复工作,面对产品快速迭代无法长效看护,同时传统WebUI自动化测试构建成本高,且难以应对界面元素动态变化,维护成本高。本实践结合视觉神级网络和DeepSeek模型探索落地智能化界面测试技术,实现界面测试自动化防护网建设,实现测试提效和消减界面质量风险

内容大纲
1. 背景
    1.1 产品界面质量面临的挑战
    1.2 传统界面测试的瓶颈
2. 智能化界面测试转型实践
    2.1 端到端一站式界面测试系统
    2.2 基于界面自主遍历+视觉异常模型判定的界面异常测试技术
    2.3 基于传统白盒+DeepSeek模型判定的界面国际化测试技术
    2.4 基于界面自主遍历+视觉体验模型判定的界面规范遵从性测试技术
3. 测试应用效果
    3.1 应用效果+典型案例
陈俊杰
OPPO 高级软件测试工程师
OPPO 互联网服务系统测试团队高级软件测试工程师,目前主要负责团队客户端自动化框架维护与开发、自动化方案落地、自动化智能体开发等工作。毕业后曾就职于中兴通讯和腾讯,从事工程效能、自动化、工具平台开发等工作。
待定
待定
客户端自动化的高效落地和深度结合大模型完成智能执行的
实践探索
1. 传统基于UI层实现的客户端自动化维护成本高,可覆盖场景有限;
2. 自动化脚本的编写维护成本高
3. 期望能够低成本的完成业务覆盖大量测试场景的诉求,同时结合AI能力实现自动化的智能化执行。

内容大纲
1. 方案背景
    1.1 主要陈述团队&业内在客户端落地过程中遇到的通用问题以及解决该类问题的一些基础思路。
2. 基础方案
    2.1 选择客户端逻辑层自动化作为基础方案:
          2.1.1 结合hook框架和UI框架,覆盖UI层场景的同时,能够实现对业务代码的深度触达以及通过mock实现各类场景构
                   造的诉求
    2.2 深度结合cursor等ai编程工具降低自动化脚本编写和维护的成本:
          2.2.1 项目结构优化与前期准备
          2.2.2 cursor rules设计与调优实践经验
3. 深度结合大模型实现智能执行的实践探索
    3.1 自动化智能执行智能体构建
          3.1.1 包括基础架构、知识库的设计以及各基础组件方案选型思路等
    3.2 通过胶水层设计,实现让智能体对逻辑层自动化封装接口的调用,从而让GUI智能体即能满足UI层的智能执行,也能
          实现对客户端底层代码的深度触达
    3.3 方案整体落地效果

听众收益
1. 了解客户端自动化高效落地方案
2. 了解GUI智能体的构建
3.  了解逻辑层客户端自动化如何与GUI智能体做深度结合
关注QECon公众号
关注QECon视频号
议题投稿
lijie@qecon.net
商务合作
151-2264-3988  木子
票务联系
186-4907-7637 胡利利 
媒体合作
135-1619-6409  皮皮
购票咨询
胡利利 18649077637
服务总线
400-183-9980  
电话咨询
联系电话:
胡利利 18649077637