- 乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。...
类别: 行业大模型 时间:2024-09-10
- MOSS 复旦大模型
复旦大模型MOSS,正式开源了
类别: 大语言模型 时间:2024-07-20
热门开源
最新开源
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。...
类别: 行业大模型 时间:2024-09-10复旦大模型MOSS,正式开源了
类别: 大语言模型 时间:2024-07-20