- GPT Shortcut
让生产力加倍的 GPT 快捷指令
类别: 写作提示词 时间:2024-09-30
- 乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。...
类别: 行业大模型 时间:2024-09-10
热门对话生成
最新对话生成
让生产力加倍的 GPT 快捷指令
类别: 写作提示词 时间:2024-09-30BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。...
类别: 行业大模型 时间:2024-09-10