书生·浦语2.0(InternLM2)大语言模型正式开源

1月17日,书生·浦语2.0(InternLM2)发布会暨书生·浦源大模型挑战赛启动仪式在上海举行。上海人工智能实验室与商汤科技联合香港中文大学和复旦大学正式发布新一代大语言模型书⽣·浦语2.0(InternLM2)。

开源地址

  • Github:https://github.com/InternLM/InternLM
  • HuggingFace:https://huggingface.co/internlm
  • ModelScope:https://modelscope.cn/organization/Shanghai_AI_Laboratory

据介绍,InternLM2是在2.6万亿token的高质量语料上训练得到的。沿袭第一代书生·浦语(InternLM)的设定,InternLM2包含7B及20B两种参数规格及基座、对话等版本,满足不同复杂应用场景需求。秉持“以高质量开源赋能创新”理念,上海AI实验室继续提供InternLM2免费商用授权。

InternLM2 的核心理念在于回归语言建模的本质,致力于通过提高语料质量及信息密度,实现模型基座语言建模能力获得质的提升,进而在数理、代码、对话、创作等各方面都取得长足进步,综合性能达到同量级开源模型的领先水平。其支持200K token的上下文,一次性接收并处理约30万汉字的输入内容,准确提取关键信息,实现长文本中“大海捞针”。

此外,InternLM2的各项能力获得全面进步,相比于初代InternLM,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。

根据大语言模型的应用方式和用户关注的重点领域,研究人员定义了语言、知识、推理、数学、代码、考试等六个能力维度,在55个主流评测集上对多个同量级模型的表现进行了综合评测。评测结果显示,InternLM2的轻量级(7B)及中量级(20B)版本性能在同量级模型中表现优异。

未经允许不得转载:岩猫星空网 » 书生·浦语2.0(InternLM2)大语言模型正式开源