专场:GenAI时代的代码质量 
在人工智能快速发展的今天,代码生成技术正逐步成为软件工程领域的革命性力量,尤其是在大模型的推动下,程序的自动化生成和优化已进入一个全新的时代。然而,如何确保生成代码的质量,成为了推动这一技术应用的重要课题。

本专场将聚焦于 “GenAI时代的代码质量”,探索如何在大规模代码生成模型的基础上,通过先进的程序分析、代码质量检测、优化算法等技术手段提升代码的可靠性、可读性与可维护性。我们将深入讨论如何在代码生成过程中,充分利用数据预处理、指令微调、领域化训练等策略,提高生成质量,并通过行业最佳实践,确保生成代码符合行业标准及实际应用需求。本专场将邀请来自AI、软件工程及相关领域的重量级专家,分享他们在代码生成质量提升方面的最新研究成果与实战经验。
专场出品人:蒋思源 
硅心科技 代码大模型算法专家
aiXcoder代码大模型算法专家,负责aiXcoder大模型开发的全流程,包括数据采集与清洗、大模型构建与训练、模型推理优化及服务、模型评估等。关注如何通过大规模分布式训练获得更符合软件工程实际开发场景的基础代码大模型;关注构建能符合软件开发流程、工具、行为的人类对齐训练方法;关注如何在私有代码上做领域化增量训练,并尽可能降低灾难遗忘等问题。
蒋思源
硅心科技 代码大模型算法专家
aiXcoder代码大模型算法专家,负责aiXcoder大模型开发的全流程,包括数据采集与清洗、大模型构建与训练、模型推理优化及服务、模型评估等。关注如何通过大规模分布式训练获得更符合软件工程实际开发场景的基础代码大模型;关注构建能符合软件开发流程、工具、行为的人类对齐训练方法;关注如何在私有代码上做领域化增量训练,并尽可能降低灾难遗忘等问题。
待定
待定
后训练过程中的代码质量提升
随着代码大模型广泛应用于实际软件开发流程,如何持续提升生成代码的质量成为当前产业界和学术界共同关注的核心问题。尽管经过海量数据预训练的代码生成模型展现出令人印象深刻的代码生成能力,但在实际应用中依然存在代码鲁棒性不足、逻辑错误频繁、上下文理解不到位等突出问题。这些问题不仅降低了开发效率,还可能带来严重的软件缺陷和安全隐患。因此,业界迫切需要探索有效的方法,通过后训练(如指令微调和工程化手段)持续提升代码质量。当前主流的方法是通过指令微调、正向反馈机制与强化学习策略,强化模型在代码质量方面的理解与表现;同时,通过引入外部工程工具,包括上下文检索、软件工程后处理及基于环境反馈的优化手段,实现更高水平的代码生成质量。这些方向的深入研究与实践,将显著提升代码大模型的应用价值。

内容大纲
1. 指令微调强化代码质量
    1.1 代码大模型主流指令微调策略
    1.2 构建代码质量正向反馈的指令微调迭代策略
    1.3 正反馈所需要的过滤手段
    1.4 强化学习在代码质量优化中的做法
2. 工程工具强化生成质量
    2.1 基于工具调用检索必要上下文
    2.2 基于软件工程后处理强化质量
    2.3 基于环境反馈优化代码质量

听众收益
1. 指令微调与正向反馈策略的应用方法
听众将深入了解如何通过指令微调策略提升代码质量,掌握基于模型的正向反馈机制,了解如何通过调整训练过程中的策略,构建优化代码质量的迭代过程。这不仅能帮助开发人员在实际项目中改善代码生成效果,还能为团队提供在类似问题上的解决思路,增强开发过程的可控性与稳定性。
2. 工程工具与后处理技术的强化应用
通过介绍如何有效地结合工程工具,如上下文检索和软件工程后处理手段,听众将学到如何借助这些技术来提升代码的生成质量和可维护性。这些方法可以帮助团队更高效地利用现有工具链,从而提升团队的整体生产力,减少重复劳动和潜在的错误风险。
3. 基于环境反馈的优化机制实践
演讲将详细阐述如何通过环境反馈来进一步优化生成代码的质量,听众将学习如何结合实际运行环境中的反馈进行持续优化,并通过不同的测试与验证手段确保生成代码的质量达标。这将帮助开发者更加精细化地调优模型,提高代码的实用性和稳定性,尤其在复杂项目中的应用效果尤为突出。
肖斌
蚂蚁集团 技术专家
就职于蚂蚁集团 CIO 技术部,自2021年加入蚂蚁以来便致力于研发效能领域的前沿技术落地,先后负责代码力度量项目,以及青燕编程助手项目,对编码领域提效有多年实践经验。目前是CodeFuse 研发助手技术负责人,从0到1建设CodeFuse IDE 系列插件,为代码大模型在蚂蚁研发领域落地铺平道路。
待定
待定
CodeFuse:大模型驱动蚂蚁研发提效的创新之路
内容大纲
1. 人工智能带来的变化
    1.1 2024 人工智在研发领域带来的收益
    1.2 CodeFuse在提升研发效率与质量中的关键解决方案
2. 技术架构与核心能力
    2.1 CodeFuse的整体架构设计与其技术优势
    2.2 利用本地核心服务构建上下文感知(ICL)能力的策略
    2.3 挖掘数据中的有效信息,提升AI能力
    2.4 确保上下文感知(ICL)的扩展性以满足多样化业务需求
3. 实际效果和案例分享
    3.1 典型业务场景的功能演示
    3.2 基于实际应用的成功案例分享与分析
4. 经验与总结
    4.1 工程实施中的挑战与应对策略
5. 未来展望
    5.1 对智能研发工具未来发展方向的深入思考
 
听众收益
1. 深入了解人工智能技术在研发领域的实际应用与显著收益
2. 探索CodeFuse智能代码助手的核心技术与其在项目中的实践经验
3. 获得针对不同业务场景实施数据处理方案的具体见解和示例
周文海
腾讯音乐 高级测试工程师
TME腾讯音乐-QQ音乐团队高级测试工程师,目前主要负责QQ音乐SDK、车载、TV等toB企业级业务的全链路质量保障。擅长通过技术创新与流程优化实现质量与效率的平衡。曾就职于TOPBAND和OPPO公司,从事IOT、SDK等软硬件测试工作。
待定
待定
AI生成单元测试用例:从手工到智能的测试革命
本次演讲将聚焦AI生成单元测试用例的技术路径与行业实践,分享如何通过AI技术突破传统测试的局限性,实现测试效率与质量的跃升,为面临高迭代压力与复杂代码场景的团队提供可落地的解决方案。

内容大纲
1. 单元测试的困境与认知升级
    1.1 从“人肉堆砌”到“智能生成”:传统手工编写用例的痛点(高成本、低覆盖、维护难)与AI驱动的范式转变
    1.2 核心升级:AI生成单元测试是测试左移理念的规模化实践,通过大模型实现“代码即测试”的自动化闭环
2. 关键技术架构与设计原则
   2.1 融合代码、需求文档、覆盖率报告等多源数据,构建测试生成知识图谱
   2.2 介绍关键设计原则
3. 实践效果与案例分享
    3.1 业务流程示例展示
    3.2 效果数据展示
4. 未来展望

实践痛点
1. 数据质量依赖:模型效果受限于训练数据完整性与标注准确性,需持续投入数据清洗成本
2. 复杂场景局限性:多线程竞争、异步回调等场景生成用例的准确率不足
3. 技术债风险:AI生成代码的“黑盒性”可能导致隐性技术债

演讲亮点
介绍AI生成单元测试用例的技术路径与行业实践

听众收益
1. 理解AI生成单测代码的技术边界与适用场景
2. 一套AI生成单元测试代码的一体化实战案例
关注QECon公众号
关注QECon视频号
议题投稿 
lijie@qecon.net  
票务联系 
159-0126-5561  小娟
 
媒体合作
135-1619-6409  皮皮
商务合作
151-2264-3988  木子
购票咨询
15901265561  小娟         
服务总线
400-183-9980