
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
TechGPT是东北大学知识图谱研究组发布的一个垂直领域大语言模型,专注于自然语言处理任务,特别强化了信息抽取、智能问答和序列生成等核心能力。
TechGPT是一个强大的垂直领域大语言模型,具备处理专业领域文本的能力,并在信息抽取、智能问答和序列生成等方面表现出色。通过开源,它为研究人员和开发者提供了一个强大的工具,以促进自然语言处理技术的发展和应用。