专场:AI 驱动的技术债治理
本专场聚焦AI 驱动的技术债治理核心主题,深度契合“提质增效” 的核心内核,探索人工智能时代软件研发质量与长期效能平衡的全新路径。
直面行业普遍痛点,破解传统技术债治理中识别不精准、量化无标准、修复成本高、管控难闭环的核心困局。
深度拆解大模型与生成式 AI 技术如何重构技术债全生命周期管理,实现从被动事后治理到主动事前防控的范式升级。
为研发负责人、架构师、质量效能专家、技术管理者提供从理念到落地的全链路解决方案,破解技术债治理的长期难题。
我们期待与行业同仁一同探索 AI 时代技术债治理的最优解,助力企业筑牢研发质量根基,实现业务高质量可持续发展。
专场出品人:张琦
华为 PaaS技术创新Lab 大模型技术专家
华为技术有限公司 PaaS技术创新Lab 大模型技术专家。主要负责AI研发助手CodeArts Snap的竞争力建设以及能力交付,端到端负责数据准备,模型训练,模型评测,服务交付。
李阳杰
腾讯音乐 高级测试开发工程师
本人长期从事研发效能体系建设与AI工程化落地工作,拥有11年以上业务线研效平台建设经验。现是TME/酷狗研效中心持续交付平台与AI效能专项主要负责人,主导了公司级持续交付平台及AICR代码审查平台从0到1的建设,并推动其在多条核心业务线落地。擅长将AI技术与研发流程深度融合,构建“发现-修复-验证-闭环”的质量内建体系,在保障代码质量的同时大幅提升研发效率。对AI Agent、大模型工程化、DevOps工具链有丰富的实战经验。
待定
待定
AI代码审查:工具终将迭代,研效体系长青
议题背景:
AI Coding大幅提升了开发效率,但代码质量风险也随之增加。代码审查作为质量内建的关键环节,面临两大挑战:一是审查本身成本高,全量扫描耗时耗钱,难以覆盖每次提交;二是发现问题和修复问题脱节,开发者修复后可能引入新风险,而传统审查无法形成闭环。如何让AI不仅发现代码问题,还能辅助修复、追踪闭环,并在过程中防止“修旧引新”?这正是AICR(AI Code Review)在设计之初就要解决的命题。本次分享将围绕AICR从设计、落地到演进的完整过程,展示如何让AI在代码审查中“左右互搏”——既能审查提交的代码,又能快速生成修复方案,并自动验证修复效果,形成质量保障的完整闭环。

内容大纲:
1. 引言:AI Coding时代,代码审查的困境与机遇
    1.1 效率提升带来的质量焦虑:AI生成代码的常见问题(软删除、空指针、并发等)
    1.2 传统AICR的痛点:全量扫描成本高、修复与验证割裂、无法防止修旧引新
    1.3 我们的目标:构建一个低成本、高反馈、能形成质量闭环的AI代码审查体系
2. AICR的设计哲学:轻量、精准、可闭环
    2.1 轻量化评审策略:为什么不做全量扫描?——成本与效率的平衡
    2.2 增量代码审查:仅分析Commit变更,小模型预筛选+大模型精准打击
    2.3 从“发现问题”到“解决问题”:如何让AI生成修复建议(Prompt设计)
    2.4 左右互搏的第一层:审查与修复协同,开发者可一键采纳AI生成的修复代码
3. 核心机制:双Agent并行,一次提交双重保障
    3.1 架构全景:追踪Agent(负责问题闭环验证)+ 增量评审Agent(负责新问题发现)
    3.2 增量评审Agent的工程化技巧
          3.2.1 技巧1:小模型预筛选,降低70%大模型调用
          3.2.2 技巧2:动态过滤合并提交,避免无效分析
          3.2.3 技巧3:历史报告语义去重,减少噪音
    3.3 追踪Agent的闭环能力
          3.3.1 如何识别问题是否修复(基于Commit变更匹配)
          3.3.2 自动标记问题状态(待修复→已修复→验证通过/未通过)
    3.4 左右互搏的第二层:修复新问题后,增量Agent立即扫描是否引入新风险
4. 工程化落地:从“AI能力”到“研发流程”的融合
    4.1 数据联动:如何与GitLab Webhook、CI/CD流水线打通,以Commit SHA为键关联上下文
    4.2 用户体验设计:非阻塞提醒、一键忽略误报、自学习优化
    4.3 成本控制实践:单次评审Token≤2000,异步后台执行,不拖慢流水线
    4.4 效果数据(3个月真实运行)
          4.4.1 增量评审触发990次,发现659个新问题,高风险修复283个
          4.4.2 修复召回率从66.7%提升至72%,新问题发现率从0提升至33%
          4.4.3 Token成本仅增加30%,但质量收益显著
5. 演进与展望:从“漏斗”到“质量背书”
    5.1 AICR不是终点,是漏斗的一环
          5.1.1 发现问题越多越快价值越大,但无可避免下游仍有Bug、缺陷、故障流出
    5.2 价值追踪体系:反向驱动AICR持续改进
          5.2.1 智能分析遗漏到后环节的缺陷,识别审查盲区,迭代规则与模型
    5.3 与智能测试(智测)协同,补足运行时问题
          5.3.1 AICR擅长静态缺陷,智测覆盖动态场景,二者互补形成完整质量网
    5.4 最终目标:为AI Coding兜底,为业务产品背书
          5.4.1 AI Coding可以快速生成海量代码,采纳率100%也不是终点          
          5.4.2 真正服务于业务、稳定运行的产品,才是价值的最终落脚点

听众收益:
1.掌握一套低成本、可落地的AI代码审查设计方法:了解如何通过“增量审查+多Agent协同”控制成本,使AI审查能够高频稳定运行而不压垮基础设施。
2.学习如何让AI不仅发现代码问题,还能生成可采纳的修复方案:获取Prompt工程经验和修复建议生成的实践技巧,提升开发者采纳率。
3.获得“发现即追踪、修复即验证”的闭环机制实现思路:理解如何将代码审查与问题追踪系统联动,自动验证问题修复状态,形成质量闭环。
4.了解如何防止“修旧引新”这一常见质量陷阱:通过双Agent并行机制,在一次提交中同时完成旧问题验证和新风险扫描,避免问题从修复分支流入主干。
5.借鉴AI工具与研发流程融合的经验:包括非阻塞设计、误报处理、数据反哺优化等,让你的AI工具真正被开发者接受,而非成为“电子警察”。
谭珊珊
北京兴云数科 资深需求分析工程师
任职于北京兴云数科技术有限公司,软件开发10年以上,当前为公司需求领域AI提效核心成员,需求领域教练,PAAS平台资深需求分析工程师。
待定
待定
AI时代遗留系统的维护与演进:
用数字化模型化繁为简,让复杂系统变更有据可依
议题背景:
本议题聚焦这类"有较大存量系统、业务仍在持续演进"的平台产品场景,结合实践给出用数字化模型解决这一困境的方案。

内容大纲:
1. 从"看代码猜意图"到"看模型知全貌":遗留系统演进的困境与出路
   1.1 某产品的真实困境
   1.2 尝试 SDD(规格驱动开发)及其局限性
   1.3 没有对系统全貌把控
2. 解决方案:用"SDD 章程 + 数字化模型"打通从规范到代码的完整链路
   2.1 破局的金钥匙 - 数字化模型
   2.2 数字化模型的三种类型
   2.3 数字化模型与V模型结合
3. 四个落地实践:"SDD 章程→模型→代码"的团队协作闭环
   3.1 实践一:用 SDD 章程收紧模型范围,明确哪些约束必须在模型中有体现,评审时检查模型是否满足约束
   3.2 实践二:需求、模型、测试三线对齐(模型作为唯一数据源,实现需求-设计-测试的自动追溯与一致性检查,避免文档分叉带来的交付风险。)
   3.3 实践三:需求变更闭环( 在存量系统中以最小代价实现能力增强,通过数字化模型精准定位影响范围,确保变更可控、可回溯、不破坏现有流程。)
4. 从试点到推广
   4.1 核心价值总结
   4.2 落地路径建议
   4.3 未来展望
敬请期待
......
.....
待定
待定
敬请期待
....
关注QECon公众号
关注QECon视频号
议题投稿 
lijie@qecon.net  
票务联系 
18649077637  Lily 
 
媒体合作
135-1619-6409  皮皮
商务合作
151-2264-3988  木子
购票咨询
18649077637  Lily
服务总线
400-183-9980  
电话咨询
联系电话:
18649077637  Lily