开源历程(多次升级)
书生·浦语大模型系列
书生·浦语20B开源大模型性能领先相近量级的开源模型(Llama-33B, Llama2-13B, Llama2-13B),能够以不足三分之一的参数量,达到Llama2-70B水平
模型到应用,当中存在gap,需要借用工具和框架来完成
应用:智能客服,个人助手,行业应用
流程图
全链条开源开放体系
大语言模型的下游应用中,增量续训和有监督微调是常用的2种方式:
增量续训:让基座模型学习到一些新知识,比如某些垂类领域知识。训练数据:书籍、文章、代码等,格式与与训练数据一致
有监督微调:让模型学会理解和遵循各种指令,或者注入少量的领域知识。训练数据:高质量的对话、问答数据。数据量比增量续训小
XTuner - 高效微调架构
部署的问题和挑战
为了解决部署中的问题,提出了LMDeploy - 大模型在GPU上部署的解决方案,还有轻量化、推理和服务
推理性能
国内外评测体系态势:HELM, FlagEval, MMLU, Alpaca Eval, SuperCLUE, OpenLLM Learderboard
OpenCompass: 6个维度,80多评测集
大语言模型的局限性:
解决:搭建智能体框架
轻量级智能体框架 Lagent - 主要是搭建框架
多模态智能体工具箱 AgentLego - 聚焦在调用工具集合