专场:AIGC时代的代码质量
专场聚焦于探讨:在AIGC时代,由于大量代码生成,如何保证代码质量的问题。本专场将涵盖 “代码大模型评估、自动生成代码、LLM辅助评审、代码自动修复” 等相关话题,并关注大模型或其他人工智能技术如何助力代码评审、提高代码质量。参与者将了解业界这方面的一些优秀实践,从而应用在工作中,以确保产出高质量、安全可靠的代码,以适应AIGC时代带来的挑战。
专场出品人:薛增奎 
科大讯飞 效能平台首席技术专家
科大讯飞效能平台首席技术专家,iFlyCode产品总架构师,研发总监,主导基于代码大模型的提效工具研究与研发,专注于企业内部的效能平台与效能体系建设。长期从事新技术的研究与探索,软件产品架构设计等相关工作。
蒋思源
硅心科技 算法部 代码大模型算法专家
aiXcoder代码大模型算法专家,负责aiXcoder大模型开发的全流程,包括数据采集与清洗、大模型构建与训练、模型推理优化及服务、模型评估等。关注如何通过大规模分布式训练获得更符合软件工程实际开发场景的基础代码大模型;关注构建能符合软件开发流程、工具、行为的人类对齐训练方法;关注如何在私有代码上做领域化增量训练,并尽可能降低灾难遗忘等问题。
待定
待定
提升代码生成质量:代码大模型实践经验
主题聚焦为了提升代码大模型的生成质量,我们需要从预训练数据处理,到指令微调正反馈,再到众多后处理策略等多种角度进行算法和工程上的创新。本演讲首先介绍了结合深度学习与软件工程领域工具方面的工作,并详细阐述了如何结合各种软件工程工具提升代码生成质量。我们将介绍预训练数据处理的重要性,包括数据筛选、语法分析和静态分析等步骤,以确保训练数据的高质量。工程工具的使用对生成结果也很重要,如语法分析和类型推断,以及如何通过迭代过程优化代码生成质量。最后,本演讲强调了在代码生成中,通过领域化训练来适应特定行业需求的策略,对模型真实落地使用具有重要意义。

内容大纲
1. 预训练中的数据处理
    1.1 常规数据处理
    1.2 结合软件工程工具进行数据筛选
2. 指令微调强化代码质量
    2.1 代码大模型主流指令微调策略
    2.2 构建代码质量正向反馈的指令微调迭代策略
    2.3 正反馈所需要的过滤手段
3. 工程工具强化生成质量
    3.1 基于 rag 检索必要上下文
    3.2 基于软件工程后处理强化质量
4. 基于 agent 流程强化代码质量
    4.1 多角色协作处理的重要性
    4.2 多工具调用的重要性
5. 针对领域数据增量训练
    5.1 领域知识的抽取方式
    5.2 小样本的训练方式
 
听众收益
1.了解增强代码大模型生成质量完整流程
2.了解预处理与后处理对生成质量的决定性作用
3.了解软件工程工具如何与深度学习模型有机结合
王幸福
携程 高级研发经理 测试专家
携程 高级研发经理/测试专家, 目前主要负责携程酒店质量工程工具和平台开发相关的工作。在DevOps,效能平台,测试平台和框架等领域有较丰富的经验。热衷于研究新技术,推动研发效能和质量的提升。
待定
待定
iCopilot Dev – 打造属于你自己的AI智能助手
在敏捷开发和DevOps的盛行的当下,频繁迭代的研发过程要求研发人员可以快速的编写高质量的代码,这无疑对开发人员提出了更高的要求,也加重了研发人员的负担,AI代码助手可以为开发人员带来显著的生产力和效率提升则已经是业界的共识。目前业界内涌现出了很多优秀的AI代码助手工具,但很多企业考虑引入这些工具时确可能遇到了很多的问题,比如费用,数据安全,业务代码生成不理想以及可扩展性等。为了解决这些问题,我们基于开源的Continue项目开发了自己的AI代码助手iCopilot Dev,以满足公司内部的研发需要。在原有的开源项目的功能上,我们扩展了CodeLens,Auto Dev,AI Lint等功能,还实现了Prompts,Slash Command,Lint规则的集中式管理。

内容大纲
1. 背景
    1.1 AI智能助手的兴起
    1.2 我们引入AI智能助手面临的问题
2. 解决方案
    2.1 主流AI智能助手比较
    2.2 大语言模型能力的支持
    2.3 我们的解决方案
3. 关键技术实现
    3.1 AI助手关键技术
        3.2 AI Lint功能
        3.3 Auto Dev功能
4. 案例和落地效果
5. 总结和未来规划
 
听众收益
1. 如何基于开源项目打造属于自己的AI代码助手
2. 了解AI代码助手的工作原理
3. 如何评估大模型的代码生成效果
4. 了解高级代码生成Agent的情况
5. 拓展一些关于AI在代码生成和代码质量方面的一些想法

周建祎
华为云 PaaS技术创新Lab高级工程师
单元测试团队负责人
华为云PaaS技术创新Lab高级工程师,单元测试团队负责人。本硕毕业于北京航空航天大学,博士毕业于北京大学计算机学院。博士阶段的研究方向包括测试执行优化和深度学习系统测试。22年获得博士学位入职华为。入职以后围绕单元测试用例自动生成和自动演化等方向展开工作。23年带领团队探索基于大模型生成单元测试用例的实践,落地CodeMate/CodeArts Snap。
待定
待定
华为云智能化单元测试实践
随着大模型在智能化研发领域的探索,结合软件分析和大模型生成单元测试在学界和业界获得广泛关注。通过静态分析工具收集代码结构和依赖信息,再使用动态分析工具捕捉运行时行为。利用大模型基于这些分析数据生成初始测试用例,这些用例涵盖常见路径和边界情况。此外,可以结合智能化修复技术,针对因为代码幻觉引入的编译错误进行修复,确保高代码覆盖率和检测潜在错误。CodeMate团队近期结合软件分析和大模型技术,探索单元测试智能生成技术,显著减少了开发人员手动编写测试用例的时间和精力,极大地提高了开发效率,并在公司内部多个产业进行推广。

内容大纲
1. UT生成业界现状(学术研究、业界进展)
2. CodeArts Snap UT生成能力在公司内部、外部落地效果
3. CodeArts Snap UT生成背后技术介绍(如何深度结合软件分析技术和大模型技术)
    3.1 软件分析结合大模型技术
    3.2 结合COT技术探索
    3.3 结合RAG技术探索
    3.4 基于构造对象分析技术优化提示语
    3.5 UT优化技术
4. 落地过程中遇到的问题
5. 面对上述问题,后续的技术探索
6. 关于该领域的技术思考和体会
 
听众收益
1. 如何更好利用大模型能力,提升UT生成效果
2. 在UT生成中面临的关键挑战
3. 学界目前的前沿技术
关注QECon公众号
议题投稿
lijie@qecon.net
商务合作
151-2264-3988  木子
票务联系
135-2067-8913  郭梦媛
媒体合作
135-1619-6409  皮皮
添加QECon小助手,获取
会议最新资讯
购票咨询
13520678913  郭梦媛
服务总线
400-183-9980