随着生成式AI技术的飞速发展,国内外LLM和AI原生应用的研发如火如荼。对于AI原生应用研发而言,需要验证使用的大模型以及最终应用是否能够达到预期效果,并持续迭代以和优化效果以提升用户满意度。与此同时,随着AI应用迭代越来越快,各产品都需要更频繁地开展效果评估工作。如何既能保证评估结果准确,又能大幅提升评估效率的自动化评估也越来越重要。
我们给大家带来大模型及AI原生应用效果评估上的实践,详细介绍如何使用工具快速构建评估体系、如何组织AI研发不同阶段的评估任务,以及如何使用平台提供的各项能力更高质量更高效率的完成评估工作,如何由浅入深地玩转自动化评估,帮助业务多快好省地完成效果评估工作。
内容大纲
1. 介绍评估的重要性:AI原生研发的最后一公里。
2. 介绍如何制定评估方案:
2.1 典型的评估流程
2.2 评估方案的组成部分
3. 详细介绍完整的评估流程(包括平台支持与实践)
3.1 评估策略组成要素
3.2 如何构建专业全面的评估集
3.3 评估方式的对比与选择:人工评估、自动化评估
3.3.1 人工评估:流程组织、评估技巧
3.3.2 自动化评估提效:调研,解决方案——算法、定制、自定义。
3.4 撰写专业全面的评估报告
4. 效果评估的不同应用场景及不同评估实践
4.1 定期执行、批量对比
4.2 效果监控
听众收益
1. 如何针对产品、使用场景制定合适的评估方案;
2. 如何制定人工评估的流程、规范、技巧
3. 自动化评估解决方案