陈思衡
上海交通大学人工智能学院
长聘轨副教授、博导
美国卡内基梅隆大学(CMU)博士,博士后,入选国家级人才计划青年项目,曾就职于美国UBER ATG自动驾驶部门。承担了基金委面上,原创探索,科技部人工智能2030重大项目课题,上海市科委人工智能专项等科研项目。研究聚焦大模型多智能体,在Nature Computational Science, Cell Patterns, T-PAMI, NeurIPS, ICML, ICLR, CVPR等期刊和会议上发表了百余篇论文。曾获得IEEE信号处理协会最佳青年作者论文奖,三菱电机实验室总统奖等。
待定
待定
群体智能——通往自动软件开发的关键突破路径
1. 背景与挑战: 随着大模型与多种工具的融合,智能体在软件开发中的效率显著提升。然而,面对更大规模、复杂度更高的软件开发任务,现有方法仍面临诸多挑战。
2. 研究思路: 为此,我们从群体智能的视角出发,探索协同进化的新路径,推动模型、智能体和数据集等多个方面的协同发展。
3. 方法一: 在模型层面,我们提出了基于多智能体社会模拟的合成数据生成方案 MATRIX-Gen,通过仅2万条高质量合成数据,即可使 Llama-3-8B-Base 的综合性能超越 Llama-3-8B-Instruct(后者由Meta使用千万级数据训练)。
4. 方法二: 在智能体层面,我们提出了多智能体工作流自进化范式 EvoMAC,通过创新性的“文本反向传播”机制,赋予智能体持续提升项目级软件开发能力的能力。
5. 方法三: 在数据集层面,我们构建了面向大型项目仓库的高质量基准数据集 SWD-Bench,为大模型和智能体提供训练与评估的统一平台。我们希望通过这些探索,为智能体驱动的软件开发提供新范式和新突破。
张海龙
Gru.ai CEO
开源中国联合创始人、CODING 创始人。复旦大学软件工程学士、CMU 计算机硕士。
主导的新项目 Gru.ai 旨在创造全自动的软件开发 Agent,提高软件工程效率。
待定
待定
探索 AI Coding 新范式:从 Copilot 到 Coding Agent
随着 GitHub Copilot、Cursor 等工具的日益普及,越来越多的代码开始由 AI 产生。但现有模式始终困于「Copilot」范式——开发者仍需深度介入上下文、逻辑设计与调试纠偏。这种半自动化协创虽提升局部效率,却未能真正释放 AI 的工程潜能。
本演讲将从 copilot 的历史讲起,与听众探讨未来 Agent 如何演进,介绍当前 Coding Agent 赛道的主要方向。并讨论在 AI 重度参与软件工程过程中后,开发者在其中的位置,以及在 AI 加速软件开发过程的情况下,软件质量所碰到的挑战。最后,将介绍 Gru.ai 在开发 Coding  Agent 方面的一些实践经验。

内容大纲
1.  大模型时代,软件工作流如何变化
     1.1 AI 参与软件开发过程的三种形态
     1.2  Copilot 发展史
     1.3  AI 的能力边界
     1.4 构建人与 AI 的协作关系
2. 大模型时代,软件质量的新挑战
    2.1 更多 AI 写的代码,更快的交付,那质量怎么办
    2.2 Code Review 能解决问题吗?
    2.3  构建 AI 时代的测试体系实践
3. Gru 构建 Coding Agent 实践
    3.1 为什么需要自建 AgentOS
    3.2 Evaluation 才是核心竞争力
    3.3 Agent 公司的工作:构建有效的上下文
    3.4  如何处理 Agent 与底层模型的关系
4. AI Coding 总结与展望
任晶磊
思码逸 创始人兼CEO
清华大学计算机系博士,前微软亚洲研究院研究员,斯坦福大学、卡内基梅隆大学访问学者;多篇论文发表在 FSE、OSDI 等顶尖国际学术会议上。曾参与微软下一代服务器系统架构设计,获 4 项美国发明专利;《软件研发效能度量规范》标准核心起草专家;研发大数据平台 Apache DevLake 开源项目发起人。现任思码逸 CEO,专注为软件团队构建先进的智能研发和效能度量平台。思码逸为企业提供专业的软件研发数字化、智能化解决方案,致力于提升全行业的软件工程水平,助力研发团队创造更多价值。
待定
待定
2025研发效能基准数据洞察与 AI 应用+度量闭环  
从数字化到数智化,企业对研发数据的需求日益增加;与此同时,AI 工具已开始在研发多个环节应用,但其实际效果与投资回报率(ROI)却面临诸多质疑。如何看清楚 AI 在研发团队中发挥的作用?在 AI 时代如何做好研发效能度量?本演讲将围绕 AI 价值验证与效能度量体系重构两大核心,解析如何构建科学的 AI 效果评估模型,通过行业标杆数据对比与案例拆解,回答技术管理者当下最为关心的上述问题,并抢先解读DevData '25研发效能基准调研的最新趋势与关键发现。

内容大纲
1. 企业从数字化到数智化的转变
2. AI 成效度量中的共性与个性
3. 研发构建 AI 落地闭环的关键步骤
4. 2025 研发效能基准数据提供的行业参考

吴菁
腾讯 tech lead
2014年加入微信支付,负责支付质量体系及测试基础设施从0到1的搭建。2015年,带领团队由系统测试向工具平台效能转型。在测试环境稳定性治理、测试平台产品化、端对端质量保障及微服务治理等工作上有丰富的经验和落地成效,并获公司级卓越研发奖。
待定
待定
MBT+混元:破局微信支付验收测试自动化可持续性难题  
本次演讲聚焦于微信支付在验收测试领域的创新实践,通过引入基于模型的测试(MBT)理论,解决了传统测试方法在需求质量、测试用例完备性及生成效率等方面的不足。演讲详细介绍了如何通过结构化需求模型自动生成测试用例及脚本,实现了需求覆盖透明化、测试脚本有效性提升,并显著降低了人力成本。实践表明,该方案在提升测试效率和质量方面取得了显著成效,为复杂业务的验收测试提供了新的思路和方法。

内容大纲
1. 背景
    • 业务特点:业务复杂,高可用要求  
    • 目标:实施全面、有效、低成本的端对端用户验收自动化测试
    • 困难:日益庞大需求规模与传统测试方法落后生产力之间的矛盾
    • 挑战:从需求到测试,非单点问题,而是一个系统性问题
2. 解决方案
    • 引入MBT用于用户验收测试,需求直通测试代码
    • 方案核心:需求结构化
    • 方案核心:需求到测试用例
    • 方案核心:需求到测试代码
    • 工程实践:AI提效脚本生产
3.  落地效果
    • 回顾:整体工作流
    • 落地效果与关键数据
4. 经验总结
    • 经验教训 
    • 适用场景
    • 成功关键
关注QECon公众号
关注QECon视频号
议题投稿 
lijie@qecon.net  
票务联系 
159-0126-5561  小娟
 
媒体合作
135-1619-6409  皮皮
商务合作
151-2264-3988  木子
购票咨询
15901265561  小娟         
服务总线
400-183-9980