AI工具箱

GPT Shortcut
GPT Shortcut

让生产力加倍的 GPT 快捷指令

类别: 写作提示词 时间:2024-09-30
乾元BigBangTransformer
乾元BigBangTransformer

BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。...

类别: 行业大模型 时间:2024-09-10
用手机扫一扫访问本站
利民吧文章数据均来自于互联网,版权归原作者所有。如有侵犯您权利的资源,请联系我们处理。
Copyright © 2016-2026 利民吧 版权所有