专场:大模型在研发提效中的深度实践 
研发效能的核心在于聚焦业务目标覆盖产研全过程,让工程师专注于真正的创造性工作。然而现实中,研发团队大量时间被非核心任务占用:技术客服咨询、运维告警处理、环境搭建排障、代码/测试用例评审等。这些"隐形工作"严重影响了产研交付速率。

当前痛点集中表现为以下三点:
  1. 1. 认知切换成本高:从深度编码状态切换到处理告警、技术咨询,平均需要15-20分钟恢复专注状态; 
  2. 2. 重复性劳动频繁:相似的环境问题排查、标准化的数据分析、常见技术咨询等,缺乏自动化支撑,影响整体交付效率; 
  3. 3. 知识传承断层:团队积累的问题解决经验难以沉淀,新人,新项目需要重复踩坑 。 

希望报名者能够围绕上述痛点,分享利用人工智能技术应用在研发全流程效率提升方面的经验或思考。
专场出品人:冯上
滴滴 工程效能部 总监
近20年软件架构、工程效能相关工作经历。曾在百度工程效能部工作,2016年加入滴滴出行,负责滴滴从项目管理、需求管理到CI/CD平台、特性管理平台、AB实验平台,以及研发效能度量等方面的建设。推动AI coding和大模型研发提效在滴滴内部的应用与实践。在特性管理平台建设、敏捷流程落地、AI赋能工程效能提升、研发效能度量等方面积累了丰富经验。
谭珊珊
北京兴云数科 资深需求分析工程师
北京兴云数科技术有限公司(中兴通讯子公司)资深需求分析工程师。拥有10年软件开发经验,曾参与云原生领域相关项目,担任过 Kubernetes Member,转向需求规划与分析领域三年。当前专注于公司运维产品的需求规划与分析。当前为公司级需求领域教练,并作为需求领域AI提效核心成员,积极推动AI赋能业务创新与团队高效协作。
待定
待定
AI驱动需求质量跃升:
基于ReAct对抗与知识沉淀的智能需求评审实践
本演讲聚焦于AI驱动的需求质量跃升,系统剖析当前需求评审过程中面临的质量与效率双重挑战。提出以“ReAct对抗机制+评审知识工程”双轮驱动为核心的智能化评审解决方案,运用智能Agent自动推理与多轮对抗机制,融合结构化知识库与动态评审规则,构建端到端的质量闭环体系。通过典型项目实践与数据成果,全面展示该方案在提升需求评审效率、降低缺陷率及促进知识沉淀等方面的显著价值。

内容大纲
1. 需求评审困境:质量与效率的双重挑战
    1.1 需求质量直接影响软件交付成败,缺陷修复成本高昂
    1.2 多角色协同需求评审的时间成本高,效率低,质量难保障
2. 双轮驱动破局:ReAct 对抗与知识工程创新方案
    2.1 整体思路:以ReAct对抗机制为基础,结合评审知识工程,协同提升需求评审的质量与效率。
    2.2 实施策略:
    2.2.1 在需求评审场景中引入ReAct对抗机制,通过评审-修正的闭环流程,自动发现并修正需求缺陷,实现智能化质量保障
    2.2.2 构建结构化评审知识工程,模拟多角色协同评审,克服传统评审单一视角的局限,推动知识的系统沉淀与复用。
3. 实践成效:效率提升与能力进阶的双重突破
    3.1 在企业项目的落地方案
    3.2 项目实施效果,实现了效率提升、缺陷率下降、知识沉淀等多维度突破。
4. 总结和未来展望:智能需求评审的持续进化
    4.1 智能需求评审实践经验总结
    4.2 AI技术将持续赋能智能需求评审,实现需求的质量内建

听众收益
1. 获得方法与理论的可达路径:深度掌握智能需求评审创新方法,系统拆解 “ReAct 对抗机制 + 知识工程” 双轮驱动的理论内核与实践路径,构建前沿技术认知体系。
2. 获得可复用的经验:获得提升需求质量和评审效率的可复制方法论和实操经验。

戴磊
平安科技  AI基础技术室经理
平安科技南京分公司AI研发团队负责人,目前主要负责金融领域AI算法研发和应用落地,以及推进公司AI编码实践和价值评估等工作,在计算机视觉、金融风控、音视频传输优化等领域深耕多年,主导研发的人脸识别、微表情风控、假证鉴别等产品在集团内外广泛应用,发表多篇顶会及国际期刊论文,并作为主要起草人参与人脸识别国家专利编写。
待定
待定
基于AI工具的“聊天式”前后端研发协同体系构建
传统式编码,高度依赖开发者的经验。输出一份高质量的代码,从构思方案,到完成编码,往往需花费较多时间,且易出现逻辑功能的错漏。AI大模型支持“聊天式”编程,通过与其进行自然语言交互,可快速帮我们生成、优化代码,显著提效、提质,同时AI大模型自带专家属性,能极大的弥补开发人员的经验不足,且可用极短的时间,生成出更优质的代码。
本次分享,将从开发提效、质量保障、风险控制、可靠生产四个领域着手,通过实际案例带大家体会AI编码的高效与高质。

内容大纲
1. “聊天式”编程新范式
    1.1 AI编码来了
    1.2  通过“自然语言”写代码
2. 工欲善其事,必先利其器
3. AI编码适用于哪些场景
4. 应用场景----开发提效
    4.1 基于产品文档生成B端高频页面代码
    4.2 基于接口文档生成API接口封装代码
5. 应用场景----质量保障
    5.1 借助AI完成自定义组件开发
    5.2 借助AI进行代码评审
6. 应用场景----风险控制
    6.1 借助AI完成vue2升级Vue3
    6.2 借助AI进行前端代码逻辑完备性校验
7. 应用场景----可靠生产
    7.1 借助AI将复杂逻辑流程图形化
    7.2 借助AI对承载关键业务的函数生成单元测试脚本
8. 结束语

听众收益
1. 掌握“聊天式编程”新范式:从“写代码”到“说需求”
2. 构建“AI+开发”工具链:从“单点辅助”到“全链路提效”
3. 获得“AI 编程落地三件套”:方法论 + 模板 + 规范

尹小芳 / 董琼
微众银行 测试专家
尹小芳:微众银行 测试专家
目前主要负责AI在测试领域的应用,主要有研发流程的测试用例生成,静态代码检测等等,目标是通过AI对测试研发流程提效。毕业后曾就职于百度凤巢测试团队。
董琼:微众银行 测试专家
目前主要负责AI测试用例生成,测试数据构造,测试问题定位等AI技术。毕业后曾就职于百度模型测试团队。
待定
待定
基于知识建模的金融贷款产品测试用例智能生成
银行贷款产品前端页面简单明了,但其实后台逻辑错综复杂,如前端的一个借款按钮,后台上万个交易路径。这样若从前端发散用例占比极少,那如何基于复杂的历史业务知识,根据需求文档发散测试用例?且设计的用例贴近团队的测试重点和颗粒度。

内容大纲
1. 项目背景和痛点
    1.1 如何把积累N年的需求文档转换成知识供用例生成所用?  
    1.2 大模型设计的用例,如何让测试重心和用例粒度符合我们团队的特点?  
    1.3 测试数据如何构造
2. 业务知识建模
    2.1 为什么要建模
          2.1.1 背景:业务需求文档直接放到知识库,用RAG检索效果差
          2.1.2 解决方案:对业务知识做建模,通过层次树+功能点知识图谱+内容文档化三层结构做业务建模 
    2.2 贷款业务知识如何建模
    2.3 如何能较高效的维护和更新业务知识模型
          2.3.1 解决方案:冷启动时人工梳理功能点节点+智能化自动整理内容+研发过程中做闭环维护
3. 测试知识建模
    3.1 背景:人工测试的时候,熟手经验驱动模式
          3.1.1 到AI时代,测试脑海里的方法论,如何给到大模型
          3.1.2 多领域测试知识空间搭建
4. 测试用例生成人机协同Agent及平台构建
    4.1 测试用例生成Agent框架
    4.2 测试数据生成Agent框架
    4.3 用例生成过程中遇到的问题及其解决方案
5. 价值贡献
    5.1 知识飞轮效应,团队成员底线提升
    5.2 人机协同测试案例智能生成,效率提升

听众收益
1. 业务知识图谱如何建模,如何精准有限的给到大模型
2. 用例设计方法论知识如何分层构建
3. 如何应对大模型的各种异常
于晓明
快手 资深测试开发工程师
快手商业化推荐引擎资深测试开发工程师,21年加入快手至今一直负责快手商业化推荐引擎的质量保障工作,包括业务提效、CICD流程的搭建和完善、线上分级发布效果检测、压测等,保障推荐服务和业务高效稳定迭代运行。
待定
待定
快手商业化广告推荐CICD流程中AI的探索与实践
高开发测试比、研发高频迭代和变更的背景下,无法或者很难进行全部人工测试验证的情况下,如何高效的进行大量的业务、框架、策略变更的质量稳定性保障以及在此的基础上如何通过AI智能客服进行CICD的提效、通过智能CR进行静态代码扫描的扩展同时探索拓展线上问题智能发现、阻断和归因

内容大纲
1. CICD介绍
2. 智能客服
3. 智能CR
4. 线上变更的智能检测、归因和阻断

听众收益
可以获取到对于高研测比以及每日大量变更的情况下如何利用AI帮助QA更好的提效,更好的保障线上的稳定性。
关注QECon公众号
关注QECon视频号
议题投稿
lijie@qecon.net
商务合作
151-2264-3988  木子
票务联系
186-4907-7637 胡利利 
媒体合作
135-1619-6409  皮皮
购票咨询
胡利利 18649077637
服务总线
400-183-9980  
电话咨询
联系电话:
胡利利 18649077637