ChatGPT的爆火让大家见识了大型语言模型的魅力,LLM作为今年来人工智能领域的研究热点,已经在自然语言处理及图像生成等领域看到了一些成果,同时也为传统传统的研发工具带来了新的影响和变化。在测试领域LLM的强大语义理解能力及面向编程语言的垂直大模型可以助力测试用例自动生成和测试创新,随之而来的机遇和挑战并存,测试领域将迎来一场新的变革。
LLM助力下的测试能力创新 专场
专场出品人:罗慧   
腾讯质量管理通道委员  资深质量总监
15年+系统测试、质量管理、测试开发团队管理经验,先后负责过QQ秀、QQ会员、QQ音乐、拍拍、微信支付、腾讯乘车码、区块链等业务的质量保障管理工作,涉及内容、存储、增值服务、电商、金融等多个领域。
.在业务高可用、资金安全、合规、效能建设上有丰富的体系化保障和提升经验。

刘晓娟
百度 资深工程师
覆盖率平台及单测基础设施技术负责人
百度覆盖率平台及单测基础设施技术负责人,从0构建了百度测试覆盖率度量工具体系及平台,百度的单测基础设施,实现了单测的全自动托管。注重单测提效,实践并落地了精准单测、分布式单测和智能单测书写等技术手段
待定
待定
百度单元测试智能生成实践
用AI原生思想重构单测书写方式
1. 背景介绍
2. 单测智能化生成的探索
3. 百度单测智能生成的具体实现
4. 当前效果、挑战和未来展望
.....
内容大纲
听众收益
周海莲
蚂蚁集团 高级技术专家
周海莲(花名:慕蓝),蚂蚁集团高级技术专家,目前负责测试用例自动生成技术的实践与落地。
毕业后曾就职于百度、阿里、蚂蚁,从事搜索系统、广告系统的质量保障和质量平台研发。2020年以来,加入蚂蚁测试智能引擎团队,负责测试用例自动生成技术,孵化出智能测试用例生成产品SmartUnit。2023年以来,开始进行大模型下测试用例生成能力的探索与落地。
曾作为讲师在2022 QECon上海站分享,并获得TOP10明星讲师。
待定
待定
基于AIGC的蚂蚁新一代测试用例自动生成技术
测试用例自动生成技术一直是学术界和工业界探讨的焦点问题,在传统算法领域,基于遗传搜索算法、程序分析算法等,我们不断地优化自动生成用例的覆盖率、可读性、效率,然而自动生成的用例始终难以达到人工手写用例的可读性水平。随着AIGC技术的发展,我们开始探索通过大模型进行测试用例生成的能力边界,并在蚂蚁完成了实践与落地。在这里,希望和大家一起交流大模型在测试用例领域落地的各类场景,共同提升测试用例生成技术。
1. 测试用例自动生成的技术演进
2. 大模型对用例生成领域的影响
3. 基于大模型进行测试用例生成
4. 总结与展望
使用大模型进行测试用例
内容大纲
听众收益
黄立华
华为 GTS测试专家
华为技术有限公司GTS智能化测试TMG组长,测试TSE,长期从事测试开发和测试工作,目前主要负责GTS的智能化使能测试规划、创新、实践落地,主要在智能化性能压测模型生成、智能化手机基线体验测试、大模型生成自动化用例等领域进行探索,并实践出一些方法出来
待定
待定
基于现有开源大模型分析需求生成自动化用例探索
当前的测试用例设计和自动化用例会发现2个痛点,1个是测试设计用例质量良莠不齐,优秀测试设计用例少,测试设计遗漏多;第2个痛点是在进行翻译手工用例转换成自动化用例,会发现存在无法完全生成一个自动化用例,存在1对多的场景和无法自动化问题、部分测试点无法自动化、测试点遗漏、自动化编码效率慢和对员工技能要求高痛点;如何通过大模型解决生成高质量的测试用例和一键式生成自动化代码,解决上诉痛点问题
1. 从需求到测试验证点生成:
1. 测试验证点辅助生成(大模型能力):
2. 需求详情(含规格)作为Prompt输入LLM
3. LLM根据输入需求描述生成测试验证点
LLM关键能力:自然语言理解能力、长文本分析能力

2. 从测试验证点生成到测试用例生成(大模型能力)
1. 构建测试因子库,因子库广度和质量优化。
2. 测试验证点+推荐测试因子+测试设计方法提示输入LLM
3. LLM基于测试验证点与测试因子库生成测试用例。
LLM关键能力:自然语言理解、测试设计方法理解

3. 从测试用例到自动化代码生成(大模型能力)
1. 测试用例输入LLM+自动化测试代码生成要求构造Prompt,输入LLM
2. LLM基于输入要求,生成对应自动化测试代码返回
3. 针对返回代码自动进行测试框架适配调整:UI元素定位信息+测试断言补充,最终生成可执行自动化测试代码。
LLM关键能力:基于业界通用编程语言、自动化测试框架的代码生成能力
中间用了大模型能力、AI图片文字识别技术、xpath自动探索技术
如何直接利用已经有的大模型的能力进行训练+测试因子方式生成自动化测试用例,实现测试自动化代码的生成效率提升。
内容大纲
听众收益
吕飞飞
字节跳动 测试专家
字节跳动 Data-数据平台-质量保障 团队
2017年北京航空航天大学硕士毕业,毕业后曾就职于百度、阿里巴巴公司,从事稳定性测试、性能测试、业务质量保障体系建设等方面工作,在2022年加入字节跳动后主要负责数据产品稳定性,容量评估,覆盖率,测试提效等工作。
待定
待定
基于LLM提升测试效率的应用实践
思考方向:基于大语言模型提升测试人员在用例编写、接口和UI自动化测试、数据构造等方向的工作效率和生成力
1. LLM辅助测试用例设计
2. LLM辅助接口自动化生成
3. LLM辅助自然语言转UI自动化用例
4. LLM辅助数据构造
1. 借鉴LLM辅助测试效率提升的工程化实践经验
2. 借鉴LLM使用过程中的问题解决思路
内容大纲
听众收益
步绍鹏
微软中国 高级研发经理
就职于微软移动体验产品部,负责搭建Phone Link 项目工程系统,保证产品质量。具有多年软件质量优化和保障经验;并负责带领团队,推动微软开源云测试平台Hydra Lab的构建和完善;在分布式测试系统、智能测试、对话式质量保证系统方面获得多项专利;所构建的Hydra Lab系统在全球多个研发中心部署,服务于微软内部多个核心产品线;2023年初开始,结合所带领团队的产品场景,推动Azure OpenAI智能能力的产品赋能;对软件测试、质量保障场景下的提示词优化、LLM落地有深入理解和研究;所著书籍《现代软件工程最佳实践》即将出版。
待定
待定
从自动到智能:LLM赋能软件测试和质量保障
2023年是人工智能发展的有一个里程牌年份,ChatGPT横空出世,重新点亮了AI赛道曙光。在这个智能化加速的时代,软件应用的广泛普及和不断增长的软件复杂性对软件测试提出了更高的要求。过去几十年,我们目睹了软件测试的自动化发展。然而,随着人工智能(AI)和生成式人工智能(AIGC)的快速发展,软件测试被智能赋能成为了一个必然的方向,很多企业和开发团队已经走在探索的道路上。本演讲将展开对软件测试智能化的介绍并分享实践经验。
回顾过去,软件测试的自动化已经极大地改善了测试效率和质量。自动化测试工具和框架的出现使得测试人员能够快速执行大量的测试用例,减少了手工测试的繁琐工作。然而,随着软件系统越来越复杂,测试环境的多样性增加,传统的自动化测试面临着挑战,如UI变化频繁、新功能的探索性测试等。强化学习、生成式AI、AIGC以及各类Copilot“副驾驶”工具、Auto-GPT、LangChian等相关技术的飞速发展,使得在AI赋能下提高测试的全面性和深度具备更高的可行性,为软件测试带来了新的机遇和可能性,包括且不限于以下方面:
1. 测试环境的模拟生成。
2. 测试数据生成。
3. 智能探索型测试。
4. 测试用例生成和优化。
5. 测试结果分析解读。
6. 测试智能调度和重试:提升运行稳定性提升。
7. 基于测试结果的诊断建议。
8. 对话式测试体验的构建。
1. AI赋能下的测试全面性和深度:AI技术可以帮助测试环境的模拟生成,测试数据的生成,智能探索型测试,测试用例的生成和优化,以及测试结果的分析解读。
2. 提升测试的稳定性和效率:智能调度和重试技术可以提高测试运行的稳定性和可靠性,同时减少测试时间和资源消耗。
3. 提供测试结果的诊断建议:基于测试结果的分析,AI可以为测试人员提供有关潜在问题和改进措施的诊断建议,从而提升测试质量。
4. 对话式测试体验的构建:AI技术可以用于构建对话式测试体验,使测试人员能够与测试工具进行自然的交互和指导,提高测试效率和准确性。
这些技术的发展为软件测试带来了更多可能性,能够帮助测试人员更全面地覆盖测试场景,发现更多潜在问题,并提升测试效率和软件质量。通过了解和应用这些技术,产品开发团队成员可以在不断变化的软件开发环境中更好地应对挑战,并推动软件质量能效、质量内建向智能化和全面化的方向发展。
内容大纲
听众收益
关注QECon公众号
关注QECon视频号
议题投稿
Speaker@qecon.net    
票务联系
18611377287  马静  
媒体合作
13516196409  皮皮
商务合作
15122643988  木子