研发效能度量在业内已进入深入区,但如何更有效的进行效能度量分析仍是个棘手问题;此外,叠加AI智能化的浪潮,各家公司都在思考如何更好的结合AI改进现有的方式方法;本次分享将结合自身在企业中的落地实践,总结经验教训,以及如何结合AI赋能效能度量分析、利用数字员工实现资源调配的实践,希望对大家有所启发和帮助。
内容大纲
1. 传统效能度量面临的挑战
1.1 指标繁杂,缺乏重点
1.2 数据分散且复杂,难以整合和分析
1.3 度量标准不统一:不同团队的度量需求颗粒度差异大,难以形成统一标准
1.4 度量结果难以落地:度量结果多停留在数据层面,团队认可度低,缺乏有效的改进措施
1.5 不同管理视角的挑战,度量结果因人而异,难以形成统一结论
2. 场景化的效能度量实践
2.1 建立度量标准实践
2.1.1 统一需求规模标准:面对行业需求规模难以统一的难题,参照国标《软件工程软件开发成本度量规范》
(GB/T36964-2018),引入国际标准功能点估算法
2.1.2 功能点评估标准调优:针对原评估体系中部分因子有较大主观性的问题,结合自身历史数据提出升级调优的2种功能点评估标准实践;并通过组织内推广运行,显著提升了功能点评估的客观性和准确性
2.2 基于角色的场景运营实践
2.2.1 建立北极星指标并达成共识:通过宣贯和引导,提升团队对效能度量的认同感
2.2.2 驱动改进的稳定性度量:通过设立基线、设定目标、故障复盘等措施,降低故障率和提效
2.2.3 建立效能分析模型
扩展“效能“到“效益”,建立开发/测试资源配比及效率分析模型
丰富模型指标:提升度量指标的完整性,逐步从结果度量过渡到过程度量,提升牵引力
3. AI赋能的效能度量实践
3.1 实践1:数字员工赋能资源调配
1) 痛点:每个团队都强调自身满负荷,资源争抢严重
2) 建立资源动态调配机制:度量各团队的生产率水平,优化资源合理配置
3) 资源调度AI助手:由数字员工完成常态化的资源调配,分析团队的能力和工作负荷,无需人工介入,提升效能
4) 异常监控AI助手:利用AI进行多维指标的自动分析、数据合理性校验和异常指标智能预警
5) 外包资源管理AI助手:由数字员工智能分析各团队新增外包申请的合理性及紧迫性
3.2 实践2:AI驱动的效能洞察
1) 痛点:传统的效能数据分析和决策支持依赖人工,效率较低:
2) 实践:在效能分析中引入大模型,自动生成效能洞察分析,挖掘潜在风险并提供改进建议
3) 关键点:构建提示词(prompt)模板库,调优AI输出结果
3.3 实践3:AI辅助功能点评估及检查
1) 痛点:功能点评估需依赖开发人员评估,耗时费力
2) 实践:引入智能化手段,对于相同规模的需求,借助新增代码行数、系统复杂度、有效排期时长、有效测试案例数、接口变动数量等因子,通过线性回归算法进行评估功能点评估合理性的检查
3.4 实践4:效能问答数字人
建立效能知识库,结合AI智能应答,便于用户实时查询
4. 成果展示及未来展望
4.1 成果展示:24年度整体实现部门需求吞吐规模同比提升16.82%、研发交付周期同比提升15.78%、缺陷密度同比降低18.29%,在几个维度均实现2位数的增长
4.2 未来展望
1) 智能化的功能点评估:不需人工评估,基于需求文档、详设文档,由AI自动生成功能点评估,人工介入轻量级校准
2) 效能度量的生态化建设:度量平台与DevOps工具链深度融合,形成闭环的效能提升体系
4.3 体会与建议
1) 做好效能度量的一些心得体会总结
2) AI4SE(AI for Software Engineering)的发展趋势
听众收益
1. 统一拉齐需求规模颗粒度的方法实践
2. 研发效能度量体系,指标矩阵全视图
3. 效能度量指标使用的设计思路、实际运用案例
4. 效能度量场景化的运营实践及踩坑经验
5. AI赋能的效能度量分析及数字员工实践