基于迁移学习的LLaMA 2大语言模型微调优化方法

  • 打印
  • 收藏
收藏成功


打开文本图片集

关键词:大语言模型;微调优化;迁移学习

中图分类号:TP312 文献标志码:A

0 引言(Introduction)

近年来,大型语言模型[1]的出现和发展对自然语言处理和人工智能领域产生了变革性影响。自GPT-3(Generative Pre-Trained Transformer v3)问世以来,逐渐涌现出一批具有强大竞争力的语言模型,例如ChatGPT[2]、Meta LLaMA[3]、文心一言、盘古大模型等。(剩余3282字)

monitor