介绍
BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。模型开源后所有开发者可以:1. 可以直接调用大模型进行对话2. 在我们训练的基础上使用自由语料库继续训练3. 对大模型进行微调训练以满足各种下游任务
最新资讯
河北省举办首届NeuroMaster脑科学人工智能挑战赛
河北省举办首届NeuroMaster脑科学人工智能挑战赛2025-01-15 11:08:38
聚焦人工智能“互联网之光”博览会今日开幕
聚焦人工智能“互联网之光”博览会今日开幕2025-01-15 10:48:35
AI造谣乱象“野蛮生长”?专家:可设置敏感关键词禁止生成显著违法信息内容
AI造谣乱象“野蛮生长”?专家:可设置敏感关键词禁止生成显著违法信息内容2025-01-15 10:28:26
“互联网之光”博览会今天开幕全面聚焦人工智能
“互联网之光”博览会今天开幕全面聚焦人工智能2025-01-15 10:08:24
探营世界互联网大会“互联网之光”博览会:看AI如何打败AI
探营世界互联网大会“互联网之光”博览会:看AI如何打败AI2025-01-15 09:48:17
你会给AI署名吗?
你会给AI署名吗?2025-01-15 09:28:08