议题背景:
AI Coding大幅提升了开发效率,但代码质量风险也随之增加。代码审查作为质量内建的关键环节,面临两大挑战:一是审查本身成本高,全量扫描耗时耗钱,难以覆盖每次提交;二是发现问题和修复问题脱节,开发者修复后可能引入新风险,而传统审查无法形成闭环。如何让AI不仅发现代码问题,还能辅助修复、追踪闭环,并在过程中防止“修旧引新”?这正是AICR(AI Code Review)在设计之初就要解决的命题。本次分享将围绕AICR从设计、落地到演进的完整过程,展示如何让AI在代码审查中“左右互搏”——既能审查提交的代码,又能快速生成修复方案,并自动验证修复效果,形成质量保障的完整闭环。
内容大纲:
1. 引言:AI Coding时代,代码审查的困境与机遇
1.1 效率提升带来的质量焦虑:AI生成代码的常见问题(软删除、空指针、并发等)
1.2 传统AICR的痛点:全量扫描成本高、修复与验证割裂、无法防止修旧引新
1.3 我们的目标:构建一个低成本、高反馈、能形成质量闭环的AI代码审查体系
2. AICR的设计哲学:轻量、精准、可闭环
2.1 轻量化评审策略:为什么不做全量扫描?——成本与效率的平衡
2.2 增量代码审查:仅分析Commit变更,小模型预筛选+大模型精准打击
2.3 从“发现问题”到“解决问题”:如何让AI生成修复建议(Prompt设计)
2.4 左右互搏的第一层:审查与修复协同,开发者可一键采纳AI生成的修复代码
3. 核心机制:双Agent并行,一次提交双重保障
3.1 架构全景:追踪Agent(负责问题闭环验证)+ 增量评审Agent(负责新问题发现)
3.2 增量评审Agent的工程化技巧
3.2.1 技巧1:小模型预筛选,降低70%大模型调用
3.2.2 技巧2:动态过滤合并提交,避免无效分析
3.2.3 技巧3:历史报告语义去重,减少噪音
3.3 追踪Agent的闭环能力
3.3.1 如何识别问题是否修复(基于Commit变更匹配)
3.3.2 自动标记问题状态(待修复→已修复→验证通过/未通过)
3.4 左右互搏的第二层:修复新问题后,增量Agent立即扫描是否引入新风险
4. 工程化落地:从“AI能力”到“研发流程”的融合
4.1 数据联动:如何与GitLab Webhook、CI/CD流水线打通,以Commit SHA为键关联上下文
4.2 用户体验设计:非阻塞提醒、一键忽略误报、自学习优化
4.3 成本控制实践:单次评审Token≤2000,异步后台执行,不拖慢流水线
4.4 效果数据(3个月真实运行)
4.4.1 增量评审触发990次,发现659个新问题,高风险修复283个
4.4.2 修复召回率从66.7%提升至72%,新问题发现率从0提升至33%
4.4.3 Token成本仅增加30%,但质量收益显著
5. 演进与展望:从“漏斗”到“质量背书”
5.1 AICR不是终点,是漏斗的一环
5.1.1 发现问题越多越快价值越大,但无可避免下游仍有Bug、缺陷、故障流出
5.2 价值追踪体系:反向驱动AICR持续改进
5.2.1 智能分析遗漏到后环节的缺陷,识别审查盲区,迭代规则与模型
5.3 与智能测试(智测)协同,补足运行时问题
5.3.1 AICR擅长静态缺陷,智测覆盖动态场景,二者互补形成完整质量网
5.4 最终目标:为AI Coding兜底,为业务产品背书
5.4.1 AI Coding可以快速生成海量代码,采纳率100%也不是终点
5.4.2 真正服务于业务、稳定运行的产品,才是价值的最终落脚点
听众收益:
1.掌握一套低成本、可落地的AI代码审查设计方法:了解如何通过“增量审查+多Agent协同”控制成本,使AI审查能够高频稳定运行而不压垮基础设施。
2.学习如何让AI不仅发现代码问题,还能生成可采纳的修复方案:获取Prompt工程经验和修复建议生成的实践技巧,提升开发者采纳率。
3.获得“发现即追踪、修复即验证”的闭环机制实现思路:理解如何将代码审查与问题追踪系统联动,自动验证问题修复状态,形成质量闭环。
4.了解如何防止“修旧引新”这一常见质量陷阱:通过双Agent并行机制,在一次提交中同时完成旧问题验证和新风险扫描,避免问题从修复分支流入主干。
5.借鉴AI工具与研发流程融合的经验:包括非阻塞设计、误报处理、数据反哺优化等,让你的AI工具真正被开发者接受,而非成为“电子警察”。