成都建设网站分享seo公司系统
第一天
主题:LLM初体验
上午:
一,大模型的发展背景和模型演进
- 数据增长和算力提升
- LSTM到BERT到LLM的参数巨变
- 最新paper解读(根据授课时间,选择最近的核心paper进行解读)
二,大模型核心阶段的认识和理解
- 预训练(CLM,Scaling Law等)
- 对齐(SFT,RW,RLHF)
- 微调(p-tuning,p-tuningV2,Lora等)
下午:
三,大模型核心架构详解Transformer
- 基本组成部分
- self-attention中的QKV的含义
- self-attention中scale的作用
- self-attention的时间复杂度问题
四,业界为何使用LLM,应该具备的条件?
- 传统bert-fintuning模式的典型弊端
- 离线需求场景下的llm提示工程
- 什么数据规模可以考虑微调
- 什么阶段应该考虑预训练和对齐工程
第二天
主题:必要的提示工程
上午:
一,为什么提示工程是必要的?
- 探索chatGPT的能力上限
- 构建领域能力测试模块(术语解释,常识理解,逻辑逻辑,业务问题退化)
- 提示工程中大模型的指令测试,稳定性测试,准确率测试目的与方法
二,提示工程的标准设计方案
- 基本结构组成(角色,问题,示例,输出格式,注意点)
- 与业务结合的CoT badcase分析方法
- 基于RAG的业务知识注入
- 基于reAct的相关工具使用
- Agent的适应场景和设计方案
下午:
三,提示工程案例剖析:
《领域知识注入的常见问题和解决方案》
- 如何选择知识库的embedding方法
- 如何设计业务上的“相似度度量”
四,前沿提示工程的paper深入解读:
- THE UNLOCKING SPELL ON BASE LLMS: RETHINKING ALIGNMENT VIA IN-CONTEXT LEARNING (来自艾伦实验室)
- Automatic Prompt Optimization with “Gradient Descent” and Beam Search( 来自微软研究院)
第三天
主题:大模型微调
上午:
一,常见微调方法的技术原理解析:
- p-tuning,p-tuningv2
- lora,adalora,qlora等
二,微调数据的分布控制和增强方法
- 如何进行微调数据的分布控制
- 基于CoT的数据逻辑增强
- 将self-instruct应用于微调数据
下午:
三,大模型微调案例剖析
《微调过程的常见问题和解决方案》
- 幻觉问题划分和对应的解决方案
- 复读机问题的本质原因和解决方案
四,前沿微调技术paper的深入解读:
- SLoRA: Federated Parameter Efficient Fine-Tuning of Language Models (来自南加州大学)
- A Comparative Study between Full-Parameter and LoRA-based Fine-Tuning on Chinese Instruction Data for Instruction Following Large Language Model( Lora技术在中文语料下的对比报告)
第四天
主题:大模型的评估与推理加速
上午:
一,大模型的评估指标与方法
- 算法角度的效果和效率评估指标
- 业务指标的设计融合与正相关
- 多层次指标设计的重要性
二,大模型分布式方法与工具
- 数据并行,模型并行,流水线并行,序列并行
- 工具:Deepspeed,Accelerate,Triton
下午:
三,大模型训练平台设计的重要性
- 数据处理流程和算力调度
- 算法团队整体效率提升的关键
四,总结与展望
- 整体总结
- 未来大模型技术展望(架构改进,多模态等)
- Monarch Mixer: A Simple Sub-Quadratic GEMM-Based Architecture (来自neurIPS2023 斯坦福大学)
- Retentive Network: A Successor to Transformer for Large Language Models(来自微软研究院)
- 互动讨论
讲师介绍:
周老师
- LLM实战专家,8年算法从业经历,曾就职于字节,快手,宜信等互联网公司,主导算法团队AIGC方向的探索和落地,对大模型预训练,对齐,微调具有丰富工程实践经验。