专场:专项测试 
汇聚业界顶尖专家与领先企业,共同探讨专项测试领域的最新技术、实践与创新应用。本专场涵盖性能与可扩展性测试、安全测试、兼容性测试、用户体验测试、大数据与AI测试、区块链测试、IoT与边缘计算测试、数据质量、测试自动化、测试工具平台等相关话题,致力于推动专项测试技术的发展,提升产品质量与用户体验,助力企业实现持续的技术创新与市场竞争力提升。
专场出品人:杨帆
腾讯 专家工程师
腾讯性能质量专家,毕业后一直在腾讯从事性能质量工作长达12年,具备丰富的端游与手游的性能质量经验,参与研发的端游项目有《剑灵》《QQ飞车》《穿越火线》等,手游项目工具有《PUBGM》《LOL手游》《PerfDog》等,并一直作为《和平精英》性能质量负责人到现在。善于快速为各种性能需求提供整体解决方案,并能够针对各类问题进行攻坚优化。
崔盼盼
腾讯音乐 专项技术测试高级工程师
2021年加入TME,目前主要负责客户端性能专项,保障QQ音乐、全民K歌的稳定性和性能体验,开发性能测试相关工具,提升性能测试效率以及问题发现和归因能力,挖掘优化策略,辅助业务持续提升用户性能体验。
待定
待定
客户端性能质量保障实践
在“降本增效”的行业背景下,客户端性能质量面临多重挑战:
1. 防劣化成本高:需求迭代频繁,传统性能测试依赖人工,测试效率低,难以覆盖高频迭代场景,劣化问题难发现
2. 性能问题定位难:性能问题缺乏有效分析工具,根因分析耗时久
3. 用户体验优化:评价指标受限,无法很好的表达用户体验
本次议题提出“线下防劣化测试 + 线上监控 + 专项突破”三位一体的性能保障体系,结合自动化工具链和智能辅助分析,实现性能问题的主动预防、快速定位、精准优化,提升测试效能,优化用户体验。

内容大纲
1. 线下防劣化测试:构建自动化防护网
    1.1 精准测试覆盖
          1.1.1 commit级防劣化测试:核心场景自动化测试,性能测试覆盖率提升至90%
          1.1.2 基线对比机制:历史性能数据基线化,自动触发劣化告警
    1.2 提升问题发现能力
         1.2.1 问题定位分析:增加日志、tracediff、堆栈等分析工具,问题精确定位
         1.2.2 检测工具扩展:自动化结合性能sdk,前置发现性能问题
2. 线上监控:从“救火”到“预警”
    2.1 全链路监控体系
          2.1.1 客户端埋点:稳定性、启动、卡顿率、FPS、秒开率等核心指标实时上报。
          2.1.2 检测工具集成:内存泄漏、FD、IO、大图、高频日志、后台渲染、功耗等性能问题持续检测
    2.2 智能根因定位:日志、trace、长尾问题等智能分析
3. 专项突破:从优化到极致体验
    3.1 性能分级治理
          3.1.1 P0级(启动/页面耗时):成立启动和耗时类专项,优化核心性能指标
          3.1.2 P1级(卡顿/体验):黑白屏毛玻璃检测,页面布局跳变等渲染优化,提升用户主观体验
          3.1.3 动态降级策略:低端机或者弱网环境下自动切换低质量资源,保障核心功能可用性

听众收益
方法论借鉴:可直接复用的“三位一体”性能保障体系设计思路
蒋超
工商银行 软件开发中心金融科技经理
业务研发和测试领域的专家,拥有丰富的项目研发及管理经验,作为工行信息科技骨干人才,在研发效能提升方面也有深入研究,目前负责工行在架构转型下的新型测试工具的研发和运营。
待定
待定
新型性能测试工艺的演进与落地实践
介绍工行软件开发中心在架构转型背景下,为了解决性能测试范围识别不精准、分析成本高、传统性能测试难以发现数据库整体性能隐患等问题,探索革新测试方法和技术手段,主要介绍基于流量的性能测试结合人工智能进行测试提效的背景、思路、应用场景和实践成效等。

内容大纲
1. 背景与思路
    1.1 传统性能测试的局限性
    1.2 流量智能压测探索与思路
    1.3 能力视图
2. 应用场景
    2.1 性能风险智能识别
    2.2 高仿真混合压测(流量智能生成与仿真膨胀)
    2.3 智能性能测试结果分析
3. 实践案例
    3.1 大型系统架构转型流量仿真与压测
    3.2 边缘压测场景补充
    3.3 性能测试报告生成
4. 未来展望

听众收益
1. 了解大型银行在新型测试工具方面的探索与实践
2. 探讨在架构转型背景下如何提升性能测试效能
王伟
世纪鲲鹏优测云服务平台CTO
腾讯PCG测试工具中心平台负责人
现任世纪鲲鹏优测云服务平台CTO、腾讯平台与内容事业群(PCG)工程效能平台部测试平台负责人。深耕软件研发效能与质量保障领域多年,主导设计并研发优测自动化测试平台及工具链,深度融合AI技术与DevOps实践,支撑腾讯QQ、应用宝、腾讯视频等亿级用户量产品的稳定迭代与快速交付。任职期间带领团队攻克高并发场景下的测试效率瓶颈,推动工具链标准化与商业化落地,打造行业领先的SaaS化测试服务平台,服务外部数百家企业客户。
待定
待定
需求-用例-UI自动化:基于AI的三阶自动化测试闭环的构建之道
随着互联网产品复杂度提升和迭代速度加快,传统测试流程面临三大核心痛点
1. 效率瓶颈:需求→用例→执行的链条长,人工介入占比超70%,难以匹配敏捷开发节奏
2. 质量风险:测试覆盖不全面,漏测问题频发;缺陷发现滞后,修复成本指数级上升
3. 资源浪费:重复性工作消耗大量人力,而高价值任务资源不足
基于AI技术构建“需求-用例-UI自动化”全链路闭环,突破传统测试的效能瓶颈,实现智能化驱动、动态优化与自我迭代;
该方案已在QQ音乐、腾讯视频等产品中落地,实现测试效率提升40%+、缺陷拦截率提高30%,并且已实现对外商业化输出,助力企业实现质量保障从“经验驱动”到“智能驱动”的跨越。

内容大纲
1. 变革挑战与心路历程
    1.1 基于真实业务场景与需求,上一代测试流程的核心痛点
    1.2 找准切入点,落地AI提效场景
2. 产品化思路与技术分享
    2.1 从需求-用例-UI自动化,构建全链路自动化测试闭环能力
    2.2 技术亮点分享
          2.2.1 Al大模型测试辅助系统 — 覆盖全流程质量管理
          2.2.2 低代码、高可塑 — 平衡低代码模式的易用性与全代码模式的灵活性,降低用例编写与维护成本、最大化提升
                  用例价值
          2.2.3 开放与易集成能力
3. 场景实战与成果
    3.1 案例分享—优测自动化测试平台在腾讯的实践之路
    3.2 产品演示—眼见为实,现场体验产品功能
4. 未来展望与思考
    4.1 产品演进规划

听众收益
1. 基于AI的自动化测试实战经验参考
2. 亿级用户量产品提质增效的实践
3. 选择适合自己团队的测试平台以及快速部署

杨帆
腾讯 专家工程师
腾讯性能质量专家,毕业后一直在腾讯从事性能质量工作长达12年,具备丰富的端游与手游的性能质量经验,参与研发的端游项目有《剑灵》《QQ飞车》《穿越火线》等,手游项目工具有《PUBGM》《LOL手游》《PerfDog》等,并一直作为《和平精英》性能质量负责人到现在。善于快速为各种性能需求提供整体解决方案,并能够针对各类问题进行攻坚优化。
待定
待定
大型游戏项目DevPerfOps工具链及其实践
现在大型游戏项目都是几百人甚至上千人的项目,性能质量面临着交付周期长、提测质量差、测试效率低以及优化复测多等问题,本议题就是结合众多大型游戏项目经验的基础之上,系统的解决性能质量所面临的各类性能质量挑战。

内容大纲
1. 大型游戏项目性能质量挑战
    1) 性能的重要性
    2) 常见性能测试痛点
    3) 痛点分析
    4) 提效方案参考
2. 性能质量的DevOps策略-DevPerfOps
    1) DevPerfOps理念
    2) DevPerfOps原则
    3) DevPerfOps具体游戏策略
3. DevPerfOps实战
    1) 团队性能意识  
    2) 性能验收能力搭建
    3) 工具链覆盖
    4) Plan阶段工具
    5) Code阶段工具
    6) Build阶段工具
    7) Test阶段工具
    8) Monitor阶段工具
4. 小结
 
听众收益
1. 能够了解当前大型项目的性能质量挑战现状
2. 针对于当前的质量挑战现状获悉如何进行解决
3. 能够收获一套完整的工具链解决方案
4. 如何能够进行快速的上手
陈丽
支付宝 高级测试开发工程师
支付宝-商家增长与数据质量团队高级测试开发工程师,目前主要负责支付宝数智化运营场景的质量体系建设,包括测试能力左移的探索和建设,通过预演能力事前仿真评测商家策略效果、营销活动效果;以及对经营策略、算法模型的评测能力构建,通过将数据分析和AI算法运用到质量技术体系,从效率效果、精准性、覆盖面等角度进行智能化质量技术能力升级和实践。毕业后就职于百度、支付宝,从事质量保障和平台开发等工作。
待定
待定
定价/托管/推荐算法评测的模拟游戏沙箱实践
近年来,在电商、租赁、二手交易等领域,运筹优化算法承担着举足轻重的地位,也不断涌现出类似智能托管、智能定价等全新的产品形态。为了优化这些算法的效果并确保其在长周期应用中的良好表现,我们提出了一种基于模拟游戏沙箱的评测方法。通过构建一个高度仿真的虚拟环境,我们可以在短时间内(分钟-小时级)对定价模型、托管策略和推荐算法还原长达十数天至一个月的交易环境,对算法效果进行全面测试和评估。这种沙箱环境能够模拟各种常规或极端的市场条件、用户行为和竞争态势,从而在安全可控的环境中快速验证模型的有效性和风险性,并进行迭代优化。这种方法不仅能够提高模型的准确性和鲁棒性,还能通过提前预估和验证,显著降低在真实环境中测试的风险和成本。解决测试周期长无法快速反馈评估、测试难度大无法全面评估等方面的痛点。

内容大纲
1. 降低测试风险:在真实环境中实验定价、托管和推荐模型往往伴随着高风险和高成本。模型效果需要长周期回收。模拟游戏沙箱提供了一个安全快捷的环境,可以在不影响实际业务的情况下进行大规模仿真验证,从而降低潜在的风险。
2. 全面评估模型性能:传统的评测方法通常只能在有限的数据集上进行,难以全面反映模型在复杂多变的市场环境中的表现。模拟游戏沙箱可以模拟多种市场条件和用户行为,全面评估模型在不同情况下的性能。
3. 快速迭代优化:通过模拟游戏沙箱,开发团队可以快速获取模型在各种场景下的表现数据,及时发现并修复问题,加速模型的迭代优化过程。
4. 最佳实践:在支付宝的实际应用场景中,模拟游戏沙箱已经证明了其在定价托管算法评测中的价值。通过提前检出潜在风险和问题,我们能够在模型上线前进行充分的测试和调整,确保模型在实际应用中的稳定性和有效性。

听众收益
启发:通过引入数据分析+ AI算法的能力解决以往不能解决或解决效率很低的问题;
借鉴:业界为验证算法模型升级的业务效果,往往通过AB实验观察策略算法运行效果,周期较长,尤其是2B流量稀疏的场景,甚至长达十数天至一个月。该方法通过建设仿真环境快速迭代反馈,对算法效果进行高效评估、全面评估有比较好的借鉴意义。
关注QECon公众号
关注QECon视频号
议题投稿 
lijie@qecon.net  
票务联系 
159-0126-5561  小娟
 
媒体合作
135-1619-6409  皮皮
商务合作
151-2264-3988  木子
购票咨询
15901265561  小娟         
服务总线
400-183-9980