乾元BigBangTransformer BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
北京航空航天大学人工智能研究院 北京航空航天大学是国内最早开展人工智能研究的单位之一,具有悠久的历史和良好的学科基础,依托数学、计算机科学与技术、软件工程、模式识别等相关学科,建立了多层次的学科基地...