We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
There was an error while loading. Please reload this page.
我们满怀诚意地发布TigerBot V2,本文介绍此次发布的具体内容和训练过程中的一些科学和工程的探索结果,分享给一直支持我们的大模型开发者们。
在1.5TB多语言数据上充分训练,千卡耗时一个月,投入算力成本约300万,在OpenAI采用的公开NLP 7项任务评测中,超过同等LLaMA、Bloom等主流开源模型达15%-30%。我们相信base-v2是业内同等大小模型里能力最强的base model之一,适合各领域开发者以此为基础继续预训练或者监督微调。 图1: tigerbot-7b-base-v2在public NLP 7 tasks evaluation performance